PromptCLUE:支持最多中文任务的开源预训练模型 这个模型是基于1000亿toke中文语料上预训练,并且在数百种任务上进行Prompt任务式训练。针对理解类任务,如分类、情感分析、抽取等,可以自定义标签体系;针对多种生成任务,可以进行采样自由生成。 任务简要描述: 分类任务:输入提示、文本和分类选项,输出文本所属的种类; 2.自然语言推理任务:输入提示、两段文本,输出两者所属关系; 3.阅读理解任务:输入提示、参考文本和问题(以及选项),输出问题的答案; 4.生成任务:输入提示、文本和问题,输出按照要求生成的文本(详细示例见代码范例) 在线demo | huggigface下载地址 | colab使用示例 | 自定义数据集进行训练 | prompt中文数据集 支持几十个不同类型的任务,具有较好的零样本学习能力和少样本学习能力。针对理解类任务,如分类、情感分析、抽取等,可以自定义标签体系;针对生成任务,可以进行采样自由生成。千亿中文toke上大规模预训练,累计学习1.5万亿中文toke,亿级中文任务数据上完成训练,训练任务超过150+。比base版平均任务提升7个点+;具有更好的理解、生成和抽取能力,并且支持文本改写、纠错、知识图谱问答。
实现了中文上的三大统一:统一模型框架,统一任务形式,统一应用方式。 在安装完成ModelScope之后即可使用PromptCLUE的能力,解决全中文NLP问题 加载模型: 使用模型进行预测推理方法: 我们的模型基于大规模NLP数据集(如pCLUE),各领域综合表现素质较高,但在某些垂直领域可能表现稍弱; pCLUE:基于提示的大规模预训练数据集,用于多任务学习和零样本学习 效果对比--16类中文任务全中文任务支持零样本学习模型
模型描述
期望模型使用方式及适用范围
如何使用
代码范例
from modelscope.pipelies import pipelie
from modelscope.utils.costat import Tasks
from modelscope.models.lp import T5ForCoditioalGeeratio
from modelscope.preprocessors import TextGeeratioT5Preprocessor
model = T5ForCoditioalGeeratio.from_pretraied('ClueAI/PromptCLUE', revisio='v0.1')
preprocessor = TextGeeratioT5Preprocessor(model.model_dir)
pipelie_t2t = pipelie(task=Tasks.text2text_geeratio, model=model, preprocessor=preprocessor)
prit(pipelie_t2t('情感分析:\这个看上去还可以,但其实我不喜欢\选项:积极,消极'))
# {'text': '消极'}
prit(pipelie_t2t("下面句子是否表示了相同的语义:\文本1:糖尿病腿麻木怎么办?\文本2:糖尿病怎样控制生活方式\选项:相似,不相似\答案:"))
# {'text': '不相似'}
prit(pipelie_t2t('这是关于哪方面的新闻:\如果日本沉没,中国会接收日本难民吗?\选项:故事,文化,娱乐,体育,财经,房产,汽车,教育,科技,军事,旅游,国际,股票,农业,游戏'))
# {'text': '国际'}
prit(pipelie_t2t("阅读文本抽取关键信息:\张玄武1990年出生中国国籍无境外居留权博士学历现任杭州线锁科技技术总监。\问题:机构,人名,职位,籍贯,专业,国籍,学历,种族\答案:"))
# {'text': '机构:杭州线锁科技技术_人名:张玄武_职位:博士学历'}
prit(pipelie_t2t("翻译成英文:\杀不死我的只会让我更强大\答案:"))
# {'text': 'To kill my life oly let me stroger'}
prit(pipelie_t2t('为下面的文章生成摘要:\北京时间9月5日12时52分,四川甘孜藏族自治州泸定县发生6.8级地震。地震发生后,领导高度重视并作出重要指示,要求把抢救生命作为首要任务,全力救援受灾群众,最大限度减少人员伤亡'))
# {'text': '四川甘孜发生6.8级地震'}
prit(pipelie_t2t("推理关系判断:\前提:小明今天在北京\假设:小明在深圳旅游\选项:矛盾,蕴含,中立\答案:"))
# {'text': '蕴涵'}
prit(pipelie_t2t('阅读以下对话并回答问题。\男:今天怎么这么晚才来上班啊?女:昨天工作到很晚,而且我还感冒了。男:那你回去休息吧,我帮你请假。女:谢谢你。\问题:女的怎么样?\选项:正在工作,感冒了,在打电话,要出差。'))
# {'text': '感冒了'}
prit(pipelie_t2t("文本纠错:\告诉二营长,叫他彻回来,我李云龙从不打没有准备的杖\答案:"))
#{'text':'告诉二营长,叫他下来,我李云龙从不打没有准备的仗'}
prit(pipelie_t2t("问答:\问题:小米的创始人是谁?\答案:"))
# {'text': '小米创始人:雷军'}
模型局限性及可能的偏差
训练数据介绍
目前已经有包含9个数据集:
1.单分类tews
2.单分类iflytek
3.自然语言推理ocli
4.语义匹配afqmc
5.指代消解-cluewsc2020
6.关键词识别-csl
7.阅读理解-自由式c3
8.阅读理解-抽取式cmrc2018
9.阅读理解-成语填空chid
字段说明及评价标准:
iput:模型的输入
target:模型的输出
type:任务类型,阅读理解(mrc),分类(classify),生成(geerate),自然语言推理(li)
评价标准:阅读理解(em),分类(acc),生成(em),自然语言推理(acc)
aswer_choices:选项(只有分类、推理类任务有)
数据评估及结果
任务类型
PromptCLUE-base
PromptCLUE-large
63.47
70.55(+7.08)
参数 Parameters
220M
770M
分类 classify
89.56
92.89
情感分析 emotio_aalysis
80.55
85.64
相似度计算 similar
70.94
78.47
自然语言推理 li
78.00
86.67
指代消解 aaphora_resolutio
30.00
64.00
阅读理解 readig_comprehesio
71.69
84.78
关键词提取 keywords_extractio
41.44
47.78
信息抽取 er
63.02
70.09
知识图谱问答 kowledge_graph
-
53.11
中心词提取 Keyword_extractio
66.50
71.50
翻译(英中、中英) mt
55.92
59.67
摘要 summary
31.71
34.48
问答 qa
21.18
27.05
生成(文章、问题生成)
35.86
39.87
改写 paraphrase
-
57.68
纠错 correct
-
93.35
点击空白处退出提示
评论