本项目提供的预训练模型是基于大数据训练的通用领域识别模型,开发者可以基于此模型进一步利用ModelScope的微调功能或者本项目对应的Github代码仓库FuASR进一步进行模型的领域定制化。 对于有开发需求的使用者,特别推荐您使用Notebook进行离线处理。先登录ModelScope账号,点击模型页面右上角的“在Notebook中打开”按钮出现对话框,首次使用会提示您关联阿里云账号,按提示操作即可。关联账号后可进入选择启动实例界面,选择计算资源,建立实例,待实例创建完成后进入开发环境,进行调用。 识别结果输出路径结构如下: laguage:语种 text:语音识别结果文件 FuASR框架支持魔搭社区开源的工业级的语音识别模型的traiig & fietuig,使得研究人员和开发者可以更加便捷的进行语音识别模型的研究和生产,目前已在Github开源:https://github.com/alibaba-damo-academy/FuASR 。若在使用过程中遇到任何问题,欢迎联系我们:联系方式 运行范围 使用方式 使用范围与目标场景 考虑到特征提取流程和工具以及训练工具差异,会对CER的数据带来一定的差异(<0.1%),推理GPU环境差异导致的RTF数值差异。Whisper模型介绍
如何使用与训练自己的模型
在Notebook中开发
基于ModelScope进行推理
cat wav.scp
asr_example1 data/test/audios/asr_example1.wav
asr_example2 data/test/audios/asr_example2.wav
...
from modelscope.pipelies import pipelie
from modelscope.utils.costat import Tasks
iferece_pipelie = pipelie(
task=Tasks.auto_speech_recogitio,
model='damo/speech_whisper-small_asr_eglish',
model_revisio='v1.0.0')
rec_result = iferece_pipelie(audio_i='https://isv-data.oss-c-hagzhou.aliyucs.com/ics/MaaS/ASR/test_audio/asr_example_zh.wav')
prit(rec_result)
rec_result = iferece_pipelie(audio_i='https://isv-data.oss-c-hagzhou.aliyucs.com/ics/MaaS/ASR/test_audio/asr_example_zh.pcm', audio_fs=16000)
rec_result = iferece_pipelie(audio_i='asr_example_zh.wav')
iferece_pipelie = pipelie(
task=Tasks.auto_speech_recogitio,
model='damo/speech_whisper-small_asr_eglish',
model_revisio='v1.0.0',
output_dir='./output_dir')
iferece_pipelie(audio_i="wav.scp")
tree output_dir/
output_dir/
└── 1best_recog
├── laguage
└── text
1 directory, 3 files
import soudfile
waveform, sample_rate = soudfile.read("asr_example_e.wav")
rec_result = iferece_pipelie(audio_i=waveform)
基于FuASR进行微调和推理
FuASR框架安装
pip3 istall -U modelscope
git cloe https://github.com/alibaba/FuASR.git && cd FuASR
pip3 istall -e ./
使用方式以及适用范围
模型局限性以及可能的偏差
相关论文以及引用信息
@iproceedigs{gao2022paraformer,
title={Paraformer: Fast ad Accurate Parallel Trasformer for No-autoregressive Ed-to-Ed Speech Recogitio},
author={Gao, Zhifu ad Zhag, Shiliag ad McLoughli, Ia ad Ya, Zhijie},
booktitle={INTERSPEECH},
year={2022}
}
点击空白处退出提示
评论