Funasr的speech_seaco_paraformer_large_asr_nat-zh-cn-16k-common-vocab8404-pytorch模型训练

3天前学习23

之前一直在使用在线流式的语音识别,所以训练的speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-online模型。

要训练speech_seaco_paraformer_large_asr_nat-zh-cn-16k-common-vocab8404-pytorch方法和speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-online差不多。

首先找到seaco_paraformer目录,和paraformer_streaming同级,都在examples/industrial_data_pretraining下面。

两个模型训练所需数据格式都一样,所以直接使用之前标柱的数据就可以

修改配置文件finetune.sh

把数据目录和scp2jsonl目录参数按实际情况修改

有个需要注意的是,默认配置使用的双卡训练,如果只有一个卡的话修改CUDA_VISIBLE_DEVICES=“0”

其他的配置可以按需修改。

还是运行命令开始训练

finetune.sh

 

可视化查看训练进度,根目录下执行以下命令

tensorboard --logdir examples/industrial_data_pretraining/seaco_paraformer/outputs

 

扫描二维码推送至手机访问。

版权声明:本文由星光下的赶路人发布,如需转载请注明出处。

本文链接:https://forstyle.cc/zblog/post/93.html

分享给朋友: