CSANMT连续语义增强机器翻译-英中-通用领域-base

我要开发同款
匿名用户2024年07月31日
71阅读
开发技术csanmt、tensorflow
所属分类ai、ACL2022、Continuous Semantic 、Neural Machine Trans、CSANMT、bleu、nlp
开源地址https://modelscope.cn/models/iic/nlp_csanmt_translation_en2zh_base
授权协议Apache License 2.0

作品详情

基于连续语义增强的神经机器翻译模型介绍

本模型基于邻域最小风险优化策略,backbone选用先进的transformer-large模型,编码器和解码器深度分别为24和3,相关论文已发表于ACL 2022,并获得Outstanding Paper Award。

温馨提示

  • 使用pipeline推理及在线体验功能的时候,尽量输入单句文本,如果是多句长文本建议人工分句,否则可能出现漏译或未译等情况!!!

News

  • 2023年02月:

  • 支持中西语向翻译,通过中英英西模型桥接实现。

  • 支持西中语向翻译,通过西英英中模型桥接实现。

  • 支持中法语向翻译,通过中英英法模型桥接实现。

  • 支持法中语向翻译,通过法英英中模型桥接实现。

  • 新增batch推理功能

  • 修复可能存在的词表越界问题,调整英<->西/法tokenization过程中对连接符'-'的预处理策略

  • 2022年11月:

  • 发布英中-base模型,支持推理和垂直领域微调,请使用1.0.1及以上版本。相比英中-big,本模型在新闻和口语两个场景上分别微降0.7和0.5BLEU,参数量降低70%,解码速度提升1.5倍。

  • 相关模型推出去除optimizer相关参数的ckpt,文件更小,具体方法示例代码已经更新。

模型描述

基于连续语义增强的神经机器翻译模型【论文链接】由编码器、解码器以及语义编码器三者构成。其中,语义编码器以大规模多语言预训练模型为基底,结合自适应对比学习,构建跨语言连续语义表征空间。此外,设计混合高斯循环采样策略,融合拒绝采样机制和马尔可夫链,提升采样效率的同时兼顾自然语言句子在离散空间中固有的分布特性。最后,结合邻域风险最小化策略优化翻译模型,能够有效提升数据的利用效率,显著改善模型的泛化能力和鲁棒性。模型结构如下图所示。

csanmt_translation_model
CSANMT连续语义增强机器翻译

具体来说,我们将双语句子对两个点作为球心,两点之间的欧氏距离作为半径,构造邻接语义区域(即邻域),邻域内的任意一点均与双语句子对语义等价。为了达到这一点,我们引入切线式对比学习,通过线性插值方法构造困难负样例,其中负样本的游走范围介于随机负样本和切点之间。然后,基于混合高斯循环采样策略,从邻接语义分布中采样增强样本,通过对差值向量进行方向变换和尺度缩放,可以将采样目标退化为选择一系列的尺度向量。

tangential_ctl
切线式对比学习
sampling
混合高斯循环采样

期望模型使用方式以及适用范围

本模型适用于具有一定数据规模(百万级以上)的所有翻译语向,同时能够与离散式数据增强方法(如back-translation)结合使用。

如何使用

在ModelScope框架上,提供输入源文,即可通过简单的Pipeline调用来使用。

代码范例

# English-to-Chinese

# 2023.02.16 NOTE:更新modelscope,pip install modelscope --upgrade -i  https://pypi.tuna.tsinghua.edu.cn/simple

# 温馨提示: 使用pipeline推理及在线体验功能的时候,尽量输入单句文本,如果是多句长文本建议人工分句,否则可能出现漏译或未译等情况!!!

from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks

input_sequence = 'Elon Musk, co-founder and chief executive officer of Tesla Motors.'

pipeline_ins = pipeline(task=Tasks.translation, model="damo/nlp_csanmt_translation_en2zh_base")
outputs = pipeline_ins(input=input_sequence)

print(outputs['translation']) # 'Elon Musk,特斯拉汽车公司联合创始人兼首席执行官。'
# batch推理

# 2023.02.16 NOTE:更新modelscope,pip install modelscope --upgrade -i  https://pypi.tuna.tsinghua.edu.cn/simple

# 温馨提示: 使用pipeline推理及在线体验功能的时候,尽量输入单句文本,如果是多句长文本建议人工分句,否则可能出现漏译或未译等情况!!!

from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks

batch_input_sequences = [
    "Elon Musk, co-founder and chief executive officer of Tesla Motors.",
    "Alibaba Group's mission is to let the world have no difficult business",
    "What's the weather like today?"
]
input_sequence = '<SENT_SPLIT>'.join(batch_input_sequences)   # 用特定的连接符<SENT_SPLIT>,将多个句子进行串联

pipeline_ins = pipeline(task=Tasks.translation, model="damo/nlp_csanmt_translation_en2zh_base")
outputs = pipeline_ins(input=input_sequence)

print(outputs['translation'].split('<SENT_SPLIT>'))

模型局限性以及可能的偏差

  1. 模型在通用数据集上训练,部分垂直领域有可能产生一些偏差,请用户自行评测后决定如何使用。
  2. 当前版本在tensorflow 2.3和1.14环境测试通过,其他环境下可用性待测试。
  3. 当前版本fine-tune在cpu和单机单gpu环境测试通过,单机多gpu等其他环境待测试。

训练数据介绍

  1. WMT21数据集,系WMT官方提供的新闻领域双语数据集。
  2. Opensubtitles2018,偏口语化(字幕)的双语数据集。
  3. OPUS,众包数据集。

模型训练流程

数据准备

使用中英双语语料作为训练数据,准备两个文件:train.zh和train.en,其中每一行一一对应,例如:

#train.zh
这只是一个例子。
今天天气怎么样?
...
# train.en
This is just an example.
What's the weather like today?
...

预处理

训练数据预处理流程如下:

  1. Tokenization

英文通过mosesdecoder进行Tokenization

perl tokenizer.perl -l en < train.en > train.en.tok

中文通过jieba进行中文分词

import jieba

fR = open('train.zh', 'r', encoding='UTF-8')
fW = open('train.zh.tok', 'w', encoding='UTF-8')

for sent in fR: 
    sent = fR.read()
    sent_list = jieba.cut(sent)
    fW.write(' '.join(sent_list))

fR.close()
fW.close()
  1. Byte-Pair-Encoding
subword-nmt apply-bpe -c bpe.en < train.en.tok > train.en.tok.bpe

subword-nmt apply-bpe -c bpe.zh < train.zh.tok > train.zh.tok.bpe

参数配置

修改Configuration.json相关训练配置,根据用户定制数据进行微调。参数介绍如下:

"train": {
        "num_gpus": 0,                                           # 指定GPU数量,0表示CPU运行
        "warmup_steps": 4000,                                    # 冷启动所需要的迭代步数,默认为4000
        "update_cycle": 1,                                       # 累积update_cycle个step的梯度进行一次参数更新,默认为1
        "keep_checkpoint_max": 1,                                # 训练过程中保留的checkpoint数量
        "confidence": 0.9,                                       # label smoothing权重
        "optimizer": "adam",
        "adam_beta1": 0.9,
        "adam_beta2": 0.98,
        "adam_epsilon": 1e-9,
        "gradient_clip_norm": 0.0,
        "learning_rate_decay": "linear_warmup_rsqrt_decay",      # 学习衰减策略,可选模式包括[none, linear_warmup_rsqrt_decay, piecewise_constant]
        "initializer": "uniform_unit_scaling",                   # 参数初始化策略,可选模式包括[uniform, normal, normal_unit_scaling, uniform_unit_scaling]
        "initializer_scale": 0.1,
        "learning_rate": 1.0,                                    # 学习率的缩放系数,即根据step值确定学习率以后,再根据模型的大小对学习率进行缩放
        "train_batch_size_words": 1024,                          # 单训练batch所包含的token数量
        "scale_l1": 0.0,
        "scale_l2": 0.0,
        "train_max_len": 100,                                    # 默认情况下,限制训练数据的长度为100,用户可自行调整
        "max_training_steps": 5,                                 # 最大训练步数
        "save_checkpoints_steps": 1000,                          # 间隔多少steps保存一次模型
        "num_of_samples": 4,                                     # 连续语义采样的样本数量
        "eta": 0.6
    },
"dataset": {
        "train_src": "train.en",                                 # 指定源语言数据文件
        "train_trg": "train.zh",                                 # 指定目标语言数据文件
        "src_vocab": {
            "file": "src_vocab.txt"                              # 指定源语言词典
        },
        "trg_vocab": {
            "file": "trg_vocab.txt"                              # 指定目标语言词典
        }
    }

模型训练

# English-to-Chinese

from modelscope.trainers.nlp import CsanmtTranslationTrainer

trainer = CsanmtTranslationTrainer(model="damo/nlp_csanmt_translation_en2zh_base")
trainer.train()

数据评估及结果

Backbone #Params WMT18-20 (NLTK_BLEU) IWSLT 16-17 (NLTK_BLEU) Remark
- - 31.3 19.8 Google
24-6-1024 570M 29.8 19.8 ModelScope (big)
24-3-512 205M 29.1 19.3 ModelScope (base)

论文引用

如果你觉得这个该模型对有所帮助,请考虑引用下面的相关的论文:

@inproceedings{wei-etal-2022-learning,
  title = {Learning to Generalize to More: Continuous Semantic Augmentation for Neural Machine Translation},
  author = {Xiangpeng Wei and Heng Yu and Yue Hu and Rongxiang Weng and Weihua Luo and Rong Jin},
  booktitle = {Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics, ACL 2022},
  year = {2022},
}
声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论