Highlights
- Paraformer-large长音频模型集成VAD、ASR、标点与时间戳功能,可直接对时长为数小时音频进行识别,并输出带标点文字与时间戳:
- ASR模型:Paraformer-large模型,具有高计算效率与SOTA识别效果的非自回归端到端语音识别模型,长音频版本模型支持输出字级别时间戳。
- VAD模型:语音端点检查VAD模型,可检测长语音片段中有效语音的起止时间点。
- 标点模型:中文标点预测通用模型,可用于语音识别模型输出文本的标点预测。
- LM模型:Transformer语言模型,可配合ASR模型进行shallow fusion解码。
Release Notes
2023年1月(预计1月16号发布):funasr-0.1.6, modelscope-1.1.4
模型功能完善:
- Modelscope模型推理pipeline,新增加多种输入音频方式,如wav.scp、音频bytes、音频采样点、WAV格式等。
- Paraformer-large模型,新增加基于ModelScope微调定制模型,新增加batch级解码,加快推理速度。
- AISHELL-1学术集Paraformer模型, AISHELL-1学术集ParaformerBert模型, AISHELL-1学术集Conformer模型、 AISHELL-2学术集Paraformer模型, AISHELL-2学术集ParaformerBert模型、 AISHELL-2学术集Conformer模型, 新增加基于ModelScope微调定制模型,其中,Paraformer与ParaformerBert模型新增加batch级解码,加快推理速度。
上线新模型:
- Paraformer-large长音频模型,集成VAD、ASR、标点与时间戳功能,可直接对时长为数小时音频进行识别,并输出带标点文字与时间戳。
- 中文无监督预训练Data2vec模型,采用Data2vec结构,基于AISHELL-2数据的中文无监督预训练模型,支持ASR或者下游任务微调模型。
- 语音端点检查VAD模型,可用于检测长语音片段中有效语音的起止时间点。
- 中文标点预测通用模型,可用于语音识别模型输出文本的标点预测。
- 8K UniASR流式模型,8K UniASR模型,一种流式与离线一体化语音识别模型,进行流式语音识别的同时,能够以较低延时输出离线识别结果来纠正预测文本。
- Paraformer-large基于AISHELL-1微调模型、AISHELL-2微调模型,将Paraformer-large模型分别基于AISHELL-1与AISHELL-2数据微调。
- 说话人确认模型 ,可用于说话人确认,也可以用来做说话人特征提取。
- 小尺寸设备端Paraformer指令词模型,Paraformer-tiny指令词版本,使用小参数量模型支持指令词识别。
将原TensorFlow模型升级为Pytorch模型,进行推理,并支持微调定制,包括:
- 16K 模型:Paraformer中文、 Paraformer-large中文、 UniASR中文、 UniASR-large中文、 UniASR中文流式模型、 UniASR方言、 UniASR方言流式模型、 UniASR日语、 UniASR日语流式模型、 UniASR印尼语、 UniASR印尼语流式模型、 UniASR葡萄牙语、 UniASR葡萄牙语流式模型、 UniASR英文、 UniASR英文流式模型、 UniASR俄语、 UniASR俄语流式模型、 UniASR韩语、 UniASR韩语流式模型、 UniASR西班牙语、 UniASR西班牙语流式模型、 UniASR粤语简体、 UniASR粤语简体流式模型、
- 8K 模型:Paraformer中文、 UniASR中文、 UniASR中文流式模型
2022年11月:funasr-0.1.4, modelscope-1.1.3
Paraformer-large非自回归模型上线,多个公开数据集上取得SOTA效果,FunASR框架:
- 支持基于ModelScope推理。
- 支持基于FunASR框架微调和推理。
项目介绍
方言自由说模型旨在不提供方言id的情况下,让一套语音识别系统能识别普通话、多种带口音方言语音。目前方言自由说模型支持东北、甘肃、贵州、河南、湖北、湖南、江西、宁夏、山西、陕西、山东、四川、天津、云南十四种带口音方言,其中四川、东北带口音方言识别准确率在85%以上。下面主要介绍UniASR模型:
UniASR 模型是一种2遍刷新模型(Two pass)端到端语音识别模型。日益丰富的业务需求,不仅要求识别效果精度高,而且要求能够实时地进行语音识别。一方面,离线语音识别系统具有较高的识别准确率,但其无法实时的返回解码文字结果,并且,在处理长语音时,容易发生解码重复的问题,以及高并发解码超时的问题等;另一方面,流式系统能够低延时的实时进行语音识别,但由于缺少下文信息,流式语音识别系统的准确率不如离线系统,在流式业务场景中,为了更好的折中实时性与准确率,往往采用多个不同时延的模型系统。为了满足差异化业务场景对计算复杂度、实时性和准确率的要求,常用的做法是维护多种语音识别系统,例如,CTC系统、E2E离线系统、SCAMA流式系统等。在不同的业务场景使用不同的模型和系统,不仅会增加模型生产成本和迭代周期,而且会增加引擎以及服务部署的维护成本。因此,我们设计了离线流式一体化语音识别系统——UniASR。UniASR同时具有高精度和低延时的特点,不仅能够实时输出语音识别结果,而且能够在说话句尾用高精度的解码结果修正输出,与此同时,UniASR采用动态延时训练的方式,替代了之前维护多套延时流式系统的做法。通过设计UniASR语音识别系统,我们将之前多套语音识别系统架构统一为一套系统架构,一个模型满足所有业务场景,显著的降低了模型生产和维护成本。
其模型结构如下图所示:
UniASR模型结构如上图所示,包含离线语音识别部分和流式语音识别部分。其中,离线与流式部分通过共享一个动态编码器(Encoder)结构来降低计算量。
流式语音识别部分是由动态时延 Encoder 与流式解码器(Decoder)构成。动态时延 Encoder 采用时延受限有句记忆单元的自注意力(LC-SAN-M)结构;流式 Decoder 采用动态 SCAMA 结构。
离线语音识别部分包含了降采样层(Sride Conv)、Big-Chunk Encoder、文本Encoder与SCAMA Decoder。
为了降低刷新输出结果的尾点延时,离线识别部分采用大Chunk 流式结构。其中,Stride Conv结构是为了降低计算量。文本 Encoder 增加了离线识别的语义信息。为了让模型能够具有不同延时下进行语音识别的能力,我们创新性地设计了动态时延训练机制,使得模型能够同时满足不同业务场景对延时和准确率的要求。根据业务场景特征,我们将语音识别需求大致分为3类:
低延迟实时听写:如电话客服,IOT语音交互等,该场景对于尾点延迟非常敏感,通常需要用户说完以后立马可以得到识别结果。
流式实时听写:如会议实时字幕,语音输入法等,该场景不仅要求能够实时返回语音识别结果,以便实时显示到屏幕上,而且还需要能够在说话句尾用高精度识别结果刷新输出。
离线文件转写:如音频转写,视频字幕生成等,该场景不对实时性有要求,要求在高识别准确率情况下,尽可能快的转录文字。
为了同时满足上面3种业务场景需求,我们将模型分成3种解码模式,分别对应为:
fast 模式:只有一遍解码,采用低延时实时出字模式;
normal 模式:2遍解码,第一遍低延时实时出字上屏,第二遍间隔3~6s(可配置)对解码结果进行刷新;
offline 模式:只有一遍解码,采用高精度离线模式;
在模型部署阶段,通过发包指定该次语音识别服务的场景模式和延时配置。这样,通过UniASR系统,我们统一了离线流式语音识别系统架构,提高模型识别效果的同时,不仅降低了模型生产成本和迭代周期,还降低了引擎以及服务部署维护成本。目前我们提供的语音识别服务基本都是基于UniASR。
如何使用与训练自己的模型
本项目提供的预训练模型是基于大数据训练的通用领域识别模型,开发者可以基于此模型进一步利用ModelScope的微调功能或者本项目对应的Github代码仓库FunASR进一步进行模型的领域定制化。
在Notebook中开发
对于有开发需求的使用者,特别推荐您使用Notebook进行离线处理。先登录ModelScope账号,点击模型页面右上角的“在Notebook中打开”按钮出现对话框,首次使用会提示您关联阿里云账号,按提示操作即可。关联账号后可进入选择启动实例界面,选择计算资源,建立实例,待实例创建完成后进入开发环境,进行调用。
基于ModelScope进行推理
- 推理支持音频格式如下:
- wav文件路径,例如:data/test/audios/asr_example.wav
- wav文件url,例如:https://isv-data.oss-cn-hangzhou.aliyuncs.com/ics/MaaS/ASR/testaudio/asrexample_zh.wav
- wav二进制数据,格式bytes,例如:用户直接从文件里读出bytes数据或者是麦克风录出bytes数据。
- 已解析的audio音频,例如:audio, rate = soundfile.read("asrexamplezh.wav"),类型为numpy.ndarray或者torch.Tensor。
- wav.scp文件,需符合如下要求:
cat wav.scp
asr_example1 data/test/audios/asr_example1.wav
asr_example2 data/test/audios/asr_example2.wav
...
- 若输入格式wav文件url,api调用方式可参考如下范例:
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
inference_pipeline = pipeline(
task=Tasks.auto_speech_recognition,
model='damo/speech_UniASR_asr_2pass-cn-dialect-16k-vocab8358-tensorflow1-offline')
rec_result = inference_pipeline(audio_in='https://isv-data.oss-cn-hangzhou.aliyuncs.com/ics/MaaS/ASR/test_audio/asr_example_zh.wav')
print(rec_result)
- 输入音频为wav格式,api调用方式可参考如下范例:
rec_result = inference_pipeline(audio_in='asr_example_zh.wav')
- 若输入格式为文件wav.scp(注:文件名需要以.scp结尾),可添加 output_dir 参数将识别结果写入文件中,api调用方式可参考如下范例:
inference_pipeline = pipeline(
task=Tasks.auto_speech_recognition,
model='damo/speech_UniASR_asr_2pass-cn-dialect-16k-vocab8358-tensorflow1-offline',
output_dir='./output_dir')
inference_pipeline("wav.scp")
识别结果输出路径结构如下:
tree output_dir/
output_dir/
└── 1best_recog
├── rtf
├── score
├── text
└── time_stamp
1 directory, 4 files
rtf:计算过程耗时统计
score:识别路径得分
text:语音识别结果文件
time_stamp:时间戳结果文件
- 若输入音频为已解析的audio音频,api调用方式可参考如下范例:
import soundfile
waveform, sample_rate = soundfile.read("asr_example_zh.wav")
rec_result = inference_pipeline(audio_in=waveform)
基于ModelScope进行微调
- 基于ModelScope上数据集进行微调:
以AISHELL-1数据集为例,完整数据集已经上传ModelScope,可通过数据集英文名(speechasraishell1_trainsets)搜索:
import os
from modelscope.metainfo import Trainers
from modelscope.msdatasets import MsDataset
from modelscope.trainers import build_trainer
exp_dir = './exp'
if not os.path.exists(exp_dir):
os.makedirs(exp_dir)
# dataset split ['train', 'validation']
ds_dict = MsDataset.load(dataset_name='speech_asr_aishell1_trainsets', namespace='speech_asr')
kwargs = dict(
model='damo/speech_UniASR_asr_2pass-cn-dialect-16k-vocab8358-tensorflow1-offline',
data_dir=ds_dict,
work_dir=exp_dir)
trainer = build_trainer(Trainers.speech_asr_trainer, default_args=kwargs)
trainer.train()
- 基于私有数据集进行微调:
私有数据集格式按如下准备:
tree ./example_data/
./example_data/
├── validation
│ ├── text
│ └── wav.scp
└── train
├── text
└── wav.scp
2 directories, 4 files
其中,text文件中存放音频标注,wav.scp文件中存放wav音频绝对路径,样例如下:
cat ./example_data/text
BAC009S0002W0122 而 对 楼市 成交 抑制 作用 最 大 的 限 购
BAC009S0002W0123 也 成为 地方 政府 的 眼中 钉
cat ./example_data/wav.scp
BAC009S0002W0122 /mnt/data/wav/train/S0002/BAC009S0002W0122.wav
BAC009S0002W0123 /mnt/data/wav/train/S0002/BAC009S0002W0123.wav
安装FunASR框架,安装命令如下:
git clone https://github.com/alibaba/FunASR.git
cd FunASR
pip install --editable ./
训练私有数据代码范例如下:
import os
from modelscope.metainfo import Trainers
from modelscope.trainers import build_trainer
from funasr.datasets.ms_dataset import MsDataset
def modelscope_finetune(params):
if not os.path.exists(params.output_dir):
os.makedirs(params.output_dir, exist_ok=True)
# dataset split ["train", "validation"]
ds_dict = MsDataset.load(params.data_path)
kwargs = dict(
model=params.model,
model_revision=params.model_revision,
data_dir=ds_dict,
dataset_type=params.dataset_type,
work_dir=params.output_dir,
batch_bins=params.batch_bins,
max_epoch=params.max_epoch,
lr=params.lr)
trainer = build_trainer(Trainers.speech_asr_trainer, default_args=kwargs)
trainer.train()
if __name__ == '__main__':
from funasr.utils.modelscope_param import modelscope_args
params = modelscope_args(model="damo/speech_UniASR_asr_2pass-cn-dialect-16k-vocab8358-tensorflow1-offline", data_path="./data")
params.output_dir = "./checkpoint" # m模型保存路径
params.data_path = "./example_data/" # 数据路径
params.dataset_type = "small" # 小数据量设置small,若数据量大于1000小时,请使用large
params.batch_bins = 2000 # batch size,如果dataset_type="small",batch_bins单位为fbank特征帧数,如果dataset_type="large",batch_bins单位为毫秒,
params.max_epoch = 20 # 最大训练轮数
params.lr = 0.00005 # 设置学习率
modelscope_finetune(params)
若使用多卡进行训练,可将上述代码保存为py文件(如finetune.py)后,执行如下命令:
CUDA_VISIBLE_DEVICES=1,2 python -m torch.distributed.launch --nproc_per_node 2 finetune.py > log.txt 2>&1
在本地机器中开发
基于FunASR进行微调和推理
FunASR框架支持魔搭社区开源的工业级的语音识别模型的training & finetuning,使得研究人员和开发者可以更加便捷的进行语音识别模型的研究和生产,目前已在Github开源:https://github.com/alibaba-damo-academy/FunASR
FunASR框架安装
- 安装FunASR和ModelScope
pip install "modelscope[audio]" -f https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html
git clone https://github.com/alibaba/FunASR.git
cd FunASR
pip install --editable ./
基于FunASR进行推理
接下来会以私有数据集为例,介绍如何在FunASR框架中进行模型推理以及微调。
cd egs_modelscope/asr/uniasr/speech_UniASR_asr_2pass-cn-dialect-16k-vocab8358-tensorflow1-offline
python infer.py
基于FunASR进行微调
cd egs_modelscope/asr/uniasr/speech_UniASR_asr_2pass-cn-dialect-16k-vocab8358-tensorflow1-offline
python finetune.py
若修改输出路径、数据路径、采样率、batch_size等配置,可参照在Notebook开发中私有数据微调部分的代码,修改finetune.py文件中配置,例如:
if __name__ == '__main__':
from funasr.utils.modelscope_param import modelscope_args
params = modelscope_args(model="damo/speech_UniASR_asr_2pass-cn-dialect-16k-vocab8358-tensorflow1-offline", data_path = "./data")
params.output_dir = "./checkpoint"
params.data_dir = "./example_data/"
params.batch_bins = 2000
modelscope_finetune(params)
若想使用多卡进行微调训练,可按执行如下命令:
CUDA_VISIBLE_DEVICES=1,2 python -m torch.distributed.launch --nproc_per_node 2 finetune.py > 1234.txt 2>&1
使用方式以及适用范围
运行范围
- 现阶段只能在Linux-x86_64运行,不支持Mac和Windows。
使用方式
- 直接推理:可以直接对输入音频进行解码,输出目标文字。
- 微调:加载训练好的模型,采用私有或者开源数据进行模型训练。
使用范围与目标场景
- 适合与离线语音识别场景,如录音文件转写,配合GPU推理效果更加,输入音频时长不限制,可以为几个小时音频。
模型局限性以及可能的偏差
考虑到特征提取流程和工具以及训练工具差异,会对CER的数据带来一定的差异(<0.1%),推理GPU环境差异导致的RTF数值差异。
相关论文以及引用信息
@inproceedings{gao2020universal,
title={Universal ASR: Unifying Streaming and Non-Streaming ASR Using a Single Encoder-Decoder Model},
author={Gao, Zhifu and Zhang, Shiliang and Lei, Ming and McLoughlin, Ian},
booktitle={arXiv preprint arXiv:2010.14099},
year={2010}
}
评论