视频人脸情绪识别

我要开发同款
匿名用户2024年07月31日
47阅读
所属分类aipytorch
开源地址https://modelscope.cn/models/wanbiao/FER-wanbiao
授权协议Apache License 2.0

作品详情

Clone with HTTP

 git clone https://www.modelscope.cn/wanbiao/FER-wanbiao.git

模型介绍

本模型使用CREMA-D数据集,使用CNN-BiLSTM进行训练。识别视频中的人脸情绪。

本模型用于复旦大学

本库提供了5个基本模型

  1. ResNet18 用于提取图像空间特征
  2. ResNet18_BiLSTM 用于处理空间和时序特征
  3. ResNet181D 用于提取MFCC特征
  4. ResNet181D_BiLSTM 用于处理MFCC和时序特征
  5. 融合ResNet18BiLSTM和ResNet181DBiLSTM的多模态模型

本模型使用例子

https://modelscope.cn/studios/wanbiao/split-video-emotion/summary

本模型微调方法

  1. 将视频保存在一个文件夹中,命名为:序号名字类别_XX.flv
  2. 运行CNNBiLSTM_SortVideo.py对其进行重新排序
  3. 运行CNNBiLSTM_Extraxx.py对其进行帧抽取
  4. 运行CNNBiLSTM_Imag2Pickle.py将抽取的帧进行打包,可以进行分包操作
  5. 运行ipynb训练相应的模型即可

模型使用

```python

预测

注意引入

@MODELS.registermodule('my-fer-task', modulename='my-custom-model')

例子在https://modelscope.cn/studios/wanbiao/split-video-emotion/summary中的app.py中

from modelscope.pipelines import pipeline modelid="wanbiao/FER-wanbiao" fer = pipeline('my-fer-task', modelid)

input_frames 是(10,50,50,3)的时序数据

predictions = fer(input_frames)

# 模型再训练

python

注意FerTrainer文件的导入

from FerTrainer import FerTrainer

构建训练器

modelid = "wanbiao/FER-wanbiao" modelmostname = "CNNBiLSTMimageresnet182dmultiplexepoch26.h5" local_data = "VideoFrameAudio-Simple-40"

kwargs = dict( model=modelid, # 模型id modelname=modelmostname, datadir = localdata, epoch = 50, batchsize = 100, validationsplit = 0.5, savepath = ".", # 模型保存路径 saveepoch = True, # 是否每次epoch都保存 model_revision='v1.0.2' )

trainer = FerTrainer(model=model_id,kwargs=kwargs)

trainer.train(kwargs=kwargs)

loss,acc = trainer.evaluate(kwargs=kwargs) print(f"loss {loss},acc {acc}") ```

声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论