Highlights
- UniASR土耳其语语音识别模型,可对近场、低噪、正常语速、朗读形式的土耳其语音频进行语音识别:
- ASR模型:UniASR模型,土耳其语语音识别模型。
- VAD模型:语音端点检查VAD模型,可检测长语音片段中有效语音的起止时间点。
Release Notes
2023年3月17日:funasr-0.3.0, modelscope-1.4.1
功能完善:
- 新增GPU runtime方案,nv-triton,可以将modelscope中Paraformer模型便捷导出,并部署成triton服务,实测,单GPU-V100,RTF为0.0032,吞吐率为300,benchmark。
- 新增CPU runtime量化方案,支持从modelscope导出量化版本onnx与libtorch,实测,CPU-8369B,量化后,RTF提升50%(0.00438->0.00226),吞吐率翻倍(228->442),benchmark。
- 新增加C++版本grpc服务部署方案,配合C++版本onnxruntime,以及量化方案,相比python-runtime性能翻倍。
- 16k VAD模型,8k VAD模型,modelscope pipeline,新增加流式推理方式,,最小支持10ms语音输入流,用法。
- 优化标点预测模型,主观体验标点准确性提升(fscore绝对提升 55.6->56.5)。
- 基于grpc服务,新增实时字幕demo,采用2pass识别模型,Paraformer流式模型 用来上屏,Paraformer-large离线模型用来纠正识别结果。
上线新模型:
- 16k Paraformer流式模型,支持语音流输入,可以进行实时语音识别,用法。支持基于grpc服务进行部署,可实现实时字幕功能。
- 流式标点模型,支持流式语音识别场景中的标点打标,以VAD点为实时调用点进行流式调用。可与实时ASR模型配合使用,实现具有可读性的实时字幕功能,用法
- TP-Aligner时间戳模型,输入音频及对应文本输出字级别时间戳,效果与Kaldi FA模型相当(60.3ms v.s. 69.3ms),支持与asr模型自由组合,用法。
- 金融领域模型,8k Paraformer-large-3445vocab,使用1000小时数据微调训练,金融领域测试集识别效果相对提升5%,领域关键词召回相对提升7%。
- 音视频领域模型,16k Paraformer-large-3445vocab,使用10000小时数据微调训练,音视频领域测试集识别效果相对提升8%。
- 8k说话人确认模型,CallHome数据集英文说话人确认模型,也可用于声纹特征提取。
- 说话人日志模型,16k SOND中文模型,8k SOND英文模型,在AliMeeting和Callhome上获得最优性能,DER分别为4.46%和11.13%。
- UniASR流式离线一体化模型: 16k UniASR缅甸语、16k UniASR希伯来语、16k UniASR土耳其语、8k UniASR中文金融领域、16k UniASR中文音视频领域。
历史 Release Notes,详细版本
重点模型如下:
标点模型: 中文标点预测通用模型
说话人确认模型: 说话人确认模型
VAD模型: 16k语音端点检测VAD模型、 8k语音端点检测VAD模型
Paraformer离线模型: 16k Paraformer-large中英文模型、 16k Paraformer-large热词模型、 16k Paraformer-large长音频模型、 16k Paraformer中文、 16k Paraformer-large中文、 8k Paraformer中文、 小尺寸设备端Paraformer指令词模型
UniASR流式离线一体化模型: UniASR中文模型、 UniASR方言模型、 16k UniASR闽南语、 16k UniASR法语、 16k UniASR德语、 16k UniASR越南语、 16k UniASR波斯语。 16k UniASR-large中文、 16k UniASR日语模型、 16k UniASR印尼语模型、 16k UniASR葡萄牙语模型、 16k UniASR英文模型、 16k UniASR俄语模型、 16k UniASR韩语模型、 16k UniASR西班牙语模型、 16k UniASR粤语简体模型、 8k UniASR中文-vocab8358、 8K UniASR流式模型
无监督预训练模型: 中文无监督预训练Data2vec模型、 基于Data2vec结构无监督预训练Paraformer模型。
项目介绍
UniASR模型是一种2遍刷新模型(Two pass)端到端语音识别模型。日益丰富的业务需求,不仅要求识别效果精度高,而且要求能够实时地进行语音识别。一方面,离线语音识别系统具有较高的识别准确率,但其无法实时的返回解码文字结果,并且,在处理长语音时,容易发生解码重复的问题,以及高并发解码超时的问题等;另一方面,流式系统能够低延时的实时进行语音识别,但由于缺少下文信息,流式语音识别系统的准确率不如离线系统,在流式业务场景中,为了更好的折中实时性与准确率,往往采用多个不同时延的模型系统。为了满足差异化业务场景对计算复杂度、实时性和准确率的要求,常用的做法是维护多种语音识别系统,例如,CTC系统、E2E离线系统、SCAMA流式系统等。在不同的业务场景使用不同的模型和系统,不仅会增加模型生产成本和迭代周期,而且会增加引擎以及服务部署的维护成本。因此,我们设计了离线流式一体化语音识别系统——UniASR。UniASR同时具有高精度和低延时的特点,不仅能够实时输出语音识别结果,而且能够在说话句尾用高精度的解码结果修正输出,与此同时,UniASR采用动态延时训练的方式,替代了之前维护多套延时流式系统的做法。通过设计UniASR语音识别系统,我们将之前多套语音识别系统架构统一为一套系统架构,一个模型满足所有业务场景,显著的降低了模型生产和维护成本。 其模型结构如下图所示:
UniASR模型结构如上图所示,包含离线语音识别部分和流式语音识别部分。其中,离线与流式部分通过共享一个动态编码器(Encoder)结构来降低计算量。流式语音识别部分是由动态时延 Encoder 与流式解码器(Decoder)构成。动态时延 Encoder 采用时延受限有句记忆单元的自注意力(LC-SAN-M)结构;流式 Decoder 采用动态 SCAMA 结构。离线语音识别部分包含了降采样层(Stride Conv)、Big-Chunk Encoder、文本Encoder与SCAMA Decoder。为了降低刷新输出结果的尾点延时,离线识别部分采用大Chunk 流式结构。其中,Stride Conv结构是为了降低计算量。文本 Encoder 增加了离线识别的语义信息。为了让模型能够具有不同延时下进行语音识别的能力,我们创新性地设计了动态时延训练机制,使得模型能够同时满足不同业务场景对延时和准确率的要求。 根据业务场景特征,我们将语音识别需求大致分为3类:
低延迟实时听写:如电话客服,IOT语音交互等,该场景对于尾点延迟非常敏感,通常需要用户说完以后立马可以得到识别结果。
流式实时听写:如会议实时字幕,语音输入法等,该场景不仅要求能够实时返回语音识别结果,以便实时显示到屏幕上,而且还需要能够在说话句尾用高精度识别结果刷新输出。
离线文件转写:如音频转写,视频字幕生成等,该场景不对实时性有要求,要求在高识别准确率情况下,尽可能快的转录文字。
为了同时满足上面3种业务场景需求,我们将模型分成3种解码模式,分别对应为:
fast 模式:只有一遍解码,采用低延时实时出字模式;
normal 模式:2遍解码,第一遍低延时实时出字上屏,第二遍间隔3~6s(可配置)对解码结果进行刷新;
offline 模式:只有一遍解码,采用高精度离线模式;
在模型部署阶段,通过发包指定该次语音识别服务的场景模式和延时配置。这样,通过UniASR系统,我们统一了离线流式语音识别系统架构,提高模型识别效果的同时,不仅降低了模型生产成本和迭代周期,还降低了引擎以及服务部署维护成本。目前我们提供的语音识别服务基本都是基于UniASR。
基于ModelScope推理
输入音频支持wav与pcm格式音频,以wav格式输入为例,支持以下几种输入方式:
- wav文件路径,例如:data/test/audios/asr_example.wav
- wav二进制数据,格式bytes,例如:用户直接从文件里读出bytes数据或者是麦克风录出bytes数据
- wav文件url,例如:https://isv-data.oss-cn-hangzhou.aliyuncs.com/ics/MaaS/ASR/testaudio/asrexample.wav
- wav文件测试集,目录结构树必须符合如下要求:
datasets directory │ └───wav │ │ │ └───test │ │ xx1.wav │ │ xx2.wav │ │ ... │ └───transcript │ data.text # hypothesis text
api调用范例
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
inference_16k_pipline = pipeline(
task=Tasks.auto_speech_recognition,
model='iic/speech_UniASR_asr_2pass-tr-16k-common-vocab1582-pytorch')
rec_result = inference_16k_pipline('https://modelscope.oss-cn-beijing.aliyuncs.com/test/audios/asr_example.wav')
print(rec_result)
如果是pcm格式输入音频,调用api时需要传入音频采样率参数audio_fs,例如:
rec_result = inference_16k_pipline('https://modelscope.oss-cn-beijing.aliyuncs.com/test/audios/asr_example.pcm', fs=16000)
基于FunASR进行推理
可执行命令行
在命令行终端执行:
funasr +model=paraformer-zh +vad_model="fsmn-vad" +punc_model="ct-punc" +input=vad_example.wav
注:支持单条音频文件识别,也支持文件列表,列表为kaldi风格wav.scp:wav_id wav_path
python示例
非实时语音识别
from funasr import AutoModel
# paraformer-zh is a multi-functional asr model
# use vad, punc, spk or not as you need
model = AutoModel(model="paraformer-zh", model_revision="v2.0.4",
vad_model="fsmn-vad", vad_model_revision="v2.0.4",
punc_model="ct-punc-c", punc_model_revision="v2.0.4",
# spk_model="cam++", spk_model_revision="v2.0.2",
)
res = model.generate(input=f"{model.model_path}/example/asr_example.wav",
batch_size_s=300,
hotword='魔搭')
print(res)
注:model_hub
:表示模型仓库,ms
为选择modelscope下载,hf
为选择huggingface下载。
实时语音识别
from funasr import AutoModel
chunk_size = [0, 10, 5] #[0, 10, 5] 600ms, [0, 8, 4] 480ms
encoder_chunk_look_back = 4 #number of chunks to lookback for encoder self-attention
decoder_chunk_look_back = 1 #number of encoder chunks to lookback for decoder cross-attention
model = AutoModel(model="paraformer-zh-streaming", model_revision="v2.0.4")
import soundfile
import os
wav_file = os.path.join(model.model_path, "example/asr_example.wav")
speech, sample_rate = soundfile.read(wav_file)
chunk_stride = chunk_size[1] * 960 # 600ms
cache = {}
total_chunk_num = int(len((speech)-1)/chunk_stride+1)
for i in range(total_chunk_num):
speech_chunk = speech[i*chunk_stride:(i+1)*chunk_stride]
is_final = i == total_chunk_num - 1
res = model.generate(input=speech_chunk, cache=cache, is_final=is_final, chunk_size=chunk_size, encoder_chunk_look_back=encoder_chunk_look_back, decoder_chunk_look_back=decoder_chunk_look_back)
print(res)
注:chunk_size
为流式延时配置,[0,10,5]
表示上屏实时出字粒度为10*60=600ms
,未来信息为5*60=300ms
。每次推理输入为600ms
(采样点数为16000*0.6=960
),输出为对应文字,最后一个语音片段输入需要设置is_final=True
来强制输出最后一个字。
语音端点检测(非实时)
from funasr import AutoModel
model = AutoModel(model="fsmn-vad", model_revision="v2.0.4")
wav_file = f"{model.model_path}/example/asr_example.wav"
res = model.generate(input=wav_file)
print(res)
语音端点检测(实时)
from funasr import AutoModel
chunk_size = 200 # ms
model = AutoModel(model="fsmn-vad", model_revision="v2.0.4")
import soundfile
wav_file = f"{model.model_path}/example/vad_example.wav"
speech, sample_rate = soundfile.read(wav_file)
chunk_stride = int(chunk_size * sample_rate / 1000)
cache = {}
total_chunk_num = int(len((speech)-1)/chunk_stride+1)
for i in range(total_chunk_num):
speech_chunk = speech[i*chunk_stride:(i+1)*chunk_stride]
is_final = i == total_chunk_num - 1
res = model.generate(input=speech_chunk, cache=cache, is_final=is_final, chunk_size=chunk_size)
if len(res[0]["value"]):
print(res)
标点恢复
from funasr import AutoModel
model = AutoModel(model="ct-punc", model_revision="v2.0.4")
res = model.generate(input="那今天的会就到这里吧 happy new year 明年见")
print(res)
时间戳预测
from funasr import AutoModel
model = AutoModel(model="fa-zh", model_revision="v2.0.4")
wav_file = f"{model.model_path}/example/asr_example.wav"
text_file = f"{model.model_path}/example/text.txt"
res = model.generate(input=(wav_file, text_file), data_type=("sound", "text"))
print(res)
更多详细用法(示例)
微调
详细用法(示例)
使用方式以及适用范围
运行范围
- 支持Linux-x86_64、Mac和Windows运行。
使用方式
- 直接推理:可以直接对输入音频进行解码,输出目标文字。
- 微调:加载训练好的模型,采用私有或者开源数据进行模型训练。
使用范围与目标场景
- 建议输入语音时长在20s以下。
模型局限性以及可能的偏差
考虑到特征提取流程和工具以及训练工具差异,会对CER的数据带来一定的差异(<0.1%),推理GPU环境差异导致的RTF数值差异。
训练数据介绍
5万小时16K通用数据
模型训练流程
在AISHELL-1与AISHELL-2等学术数据集中,采用随机初始化的方式直接训练模型。 在工业大数据上,建议加载预训练好的离线端到端模型作为初始,训练UniASR。
预处理
可以直接采用原始音频作为输入进行训练,也可以先对音频进行预处理,提取FBank特征,再进行模型训练,加快训练速度。
相关论文以及引用信息
@inproceedings{gao2020universal,
title={Universal ASR: Unifying Streaming and Non-Streaming ASR Using a Single Encoder-Decoder Model},
author={Gao, Zhifu and Zhang, Shiliang and Lei, Ming and McLoughlin, Ian},
booktitle={arXiv preprint arXiv:2010.14099},
year={2010}
}
评论