Funasr的speech_seaco_paraformer_large_asr_nat-zh-cn-16k-common-vocab8404-pytorch模型训练
之前一直在使用在线流式的语音识别,所以训练的speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-online模型。
要训练speech_seaco_paraformer_large_asr_nat-zh-cn-16k-common-vocab8404-pytorch方法和speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-online差不多。
首先找到seaco_paraformer目录,和paraformer_streaming同级,都在examples/industrial_data_pretraining下面。
两个模型训练所需数据格式都一样,所以直接使用之前标柱的数据就可以
修改配置文件finetune.sh
把数据目录和scp2jsonl目录参数按实际情况修改
有个需要注意的是,默认配置使用的双卡训练,如果只有一个卡的话修改CUDA_VISIBLE_DEVICES=“0”
其他的配置可以按需修改。
还是运行命令开始训练
finetune.sh
可视化查看训练进度,根目录下执行以下命令
tensorboard --logdir examples/industrial_data_pretraining/seaco_paraformer/outputs