在上一篇文章中,我们详细介绍了如何使用LLaMA-Factory框架对Qwen2-VL大模型进行微调,以实现人脸情感识别的功能。本篇文章将聚焦于微调完成后,如何调用这个模型进行人脸情感识别的具体代码实现,包括详细的步骤和注释。
模型调用步骤
- 环境准备:确保安装了必要的Python库。
- 加载微调后的模型:使用Hugging Face的
transformers
库加载微调后的模型和图片处理器。 - 图片预处理:对待识别的图片进行预处理,包括缩放、归一化等操作,以适应模型的输入要求。
- 模型预测:将预处理后的图片输入到模型中,进行情感预测。
- 结果输出:输出模型预测的情感类别。
代码实现
import os
import torch
from PIL import