Pre-TrainingwithWholeWordMaskingforChineseBERT(中文BERT-wwm系列模型)
在自然语言处理领域中,预训练语言模型(Pre-trainedLanguageModels)已成为非常重要的基础技术。为了进一步促进中文信息处理的研究发展,哈工大讯飞联合实验室(HFL)发布了基于全词遮罩(WholeWordMasking)技术的中文预训练模型BERT-wwm,以及与此技术密切相关的模型:BERT-wwm-ext、RoBERTa-wwm-ext、RoBERTa-wwm-ext-large、RBT3、RBTL3。
WholeWordMasking(wwm),暂翻译为全词Mask或整词Mask,是谷歌在2019年5月31日发布的一项BERT的升级版本,主要更改了原预训练阶段的训练样本生成策略。简单来说,原有基于WordPiece的分词方式会把一个完整的词切分成若干个子词,在生成训练样本时,这些被分开的子词会随机被mask。在全词Mask中,如果一个完整的词的部分WordPiece子词被mask,则同属该词的其他部分也会被mask,即全词Mask。需要注意的是,这里的mask指的是广义的mask(替换成[MASK];保持原词汇;随机替换成另外一个词),并非只局限于单词替换成[MASK]标签的情况。更详细的说明及样例请参考:#4同理,由于谷歌官方发布的BERT-base,Chinese中,中文是以字为粒度进行切分,没有考虑到传统NLP中的中文分词(CWS)。HFL 将全词Mask的方法应用在了中文中,使用了中文维基百科(包括简体和繁体)进行训练,并且使用了哈工大LTP作为分词工具,即对组成同一个词的汉字全部进行Mask。下述文本展示了全词Mask的生成样例。 注意:为了方便理解,下述例子中只考虑替换成[MASK]标签的情况。说明样例原始文本使用语言模型来预测下一个词的probability。分词文本使用语言模型来预测下一个词的probability。原始Mask输入使用语言[MASK]型来[MASK]测下一个词的pro[MASK]##lity。全词Mask输入使用语言[MASK][MASK]来[MASK][MASK]下一个词的[MASK][MASK][MASK]。中文模型下载本目录中主要包含base模型,故HFL不在模型简称中标注base字样。对于其他大小的模型会标注对应的标记(例如large)。BERT-large模型:24-layer,1024-hidden,16-heads,330MparametersBERT-base模型:12-layer,768-hidden,12-heads,110Mparameters模型简称语料Google下载讯飞云下载RBT6,ChineseEXT数据[1]-TensorFlow(密码XNMA)RBT4,ChineseEXT数据[1]-TensorFlow(密码e8dN)RBTL3,ChineseEXT数据[1]TensorFlowPyTorchTensorFlow(密码vySW)RBT3,ChineseEXT数据[1]TensorFlowPyTorchTensorFlow(密码b9nx)RoBERTa-wwm-ext-large,ChineseEXT数据[1]TensorFlowPyTorchTensorFlow(密码u6gC)RoBERTa-wwm-ext,ChineseEXT数据[1]TensorFlowPyTorchTensorFlow(密码Xe1p)BERT-wwm-ext,ChineseEXT数据[1]TensorFlowPyTorchTensorFlow(密码4cMG)BERT-wwm,Chinese中文维基TensorFlowPyTorchTensorFlow(密码07Xj)BERT-base,ChineseGoogle中文维基GoogleCloud-BERT-base,MultilingualCasedGoogle多语种维基GoogleCloud-BERT-base,MultilingualUncasedGoogle多语种维基GoogleCloud-[1]EXT数据包括:中文维基百科,其他百科、新闻、问答等数据,总词数达5.4B。
评论