孟子T5预训练生成模型-中文-base-多任务

我要开发同款
匿名用户2024年07月31日
25阅读
开发技术t5、pytorch
所属分类ai、mengzi、Langboat、澜舟科技、transformer、Rouge-L、BLEU-4、nlp
开源地址https://modelscope.cn/models/langboat/mengzi-t5-base-mt
授权协议Apache License 2.0

作品详情

孟子T5预训练生成模型-中文-base-多任务

孟子T5多任务模型在mengzi-t5-base的基础上,进一步使用27个数据集和301种prompt进行了多任务的混合训练。

关于孟子T5预训练生成模型的更多信息可参考论文:Mengzi: Towards Lightweight yet Ingenious Pre-trained Models for Chinese

模型描述

孟子多任务模型提供出色的 Zero-Shot 及 Few-Shot 能力,以 0.22B 的轻量化模型在 ZeroCLUE 和 FewCLUE 榜单均排名第一。 不仅可以实现“一个模型完成多个任务”,还具备极强的泛化能力,无需大量标注数据就可以完成新任务适配,在应用上能够让模型研发和部署维护更加轻量化。

clue榜单结果(2022-08-22)

ZeroCLUE

img_1.png

FewCLUE

img_2.png

实际场景验证

孟子多任务模型基于用户私有数据及各个领域(包括金融、医疗)的任务训练,在大量实际场景中得到验证。 下图展示了 Mengzi-T5-base-MT 模型在金融实体关系抽取任务的示例: img_4.png

更多模型能力展示

img_3.png

如何使用

from modelscope.models import Model
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks

pipeline_ins = pipeline(task=Tasks.text2text_generation, model='langboat/mengzi-t5-base-mt')
result = pipeline_ins(input='中国的首都位于<extra_id_0>。')
print (result)
#{'text': '北京'}


from modelscope.models.nlp import T5ForConditionalGeneration
from modelscope.preprocessors import TextGenerationTransformersPreprocessor
model = T5ForConditionalGeneration.from_pretrained('langboat/mengzi-t5-base-mt')
preprocessor = TextGenerationTransformersPreprocessor(model.model_dir)
pipeline_ins = pipeline(
    task=Tasks.text2text_generation,
    model=model,
    preprocessor=preprocessor)
print(pipeline_ins('中国的首都位于<extra_id_0>。'))
#{'text': '北京'}

相关论文以及引用信息

@misc{zhang2021mengzi,
      title={Mengzi: Towards Lightweight yet Ingenious Pre-trained Models for Chinese}, 
      author={Zhuosheng Zhang and Hanqing Zhang and Keming Chen and Yuhang Guo and Jingyun Hua and Yulong Wang and Ming Zhou},
      year={2021},
      eprint={2110.06696},
      archivePrefix={arXiv},
      primaryClass={cs.CL}
}
声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论