Bert实体相关性-中文-通用领域-base 实体链接旨在区分文本中的mention和大规模知识图谱中实体的对应关系,也是自然语言处理(NLP)领域的基础问题,在很多对话、检索、关系抽取等下游任务中发
290pytorchnlp
CEEL实体相关性-通用领域-base 实体链接旨在区分文本中的mention和大规模知识图谱中实体的对应关系,也是自然语言处理(NLP)领域的基础问题,在很多对话、检索、关系抽取等下游任务中发挥着重
340pytorch
CodeGeeX: 多语言代码生成\翻译模型 CodeGeeX是一个具有130亿参数的多编程语言代码生成预训练模型。CodeGeeX采用华为MindSpore框架实现,在鹏城实验室“鹏城云脑II”中的
370pytorchnlp
MSEL实体向量-通用领域-base 实体链接旨在区分文本中的mention和大规模知识图谱中实体的对应关系,也是自然语言处理(NLP)领域的基础问题,在很多对话、检索、关系抽取等下游任务中发挥着重要
250pytorch
text-classification widgets: task: text-classification inputs: type: text validator: max_words: 25
620PyTorchnlp
通义-文本生成视频大模型-英文-通用领域-v1.0 本模型基于多阶段文本到视频生成扩散模型, 输入描述文本,返回符合文本描述的视频。仅支持英文输入。 一些文本生成视频示例如下,上方为输入文本,下方为对
290pytorchmulti-modal
OFA-图像描述(英文) News 2022年11月: 发布ModelScope 1.0版本,以下能力请使用1.0.2及以上版本。 新增OFA Tutorial。 图像描述是什么? 如果你希望为一
310pytorchmulti-modal
Pangu-Alpha 2.6B 鹏程·盘古系列模型整体介绍 基于盘古系列大模型提供大模型应用落地技术帮助用户高效的落地超大预训练模型到实际场景。 鹏程·盘古系列大模型整个框架特点如下: 鹏程·盘
1100pytorchnlp
大规模中文理解和生成联合模型PLUG PLUG (Pre-training for Language Understanding and Generation) 是一个270亿参数的大规模中文理解和生
330pytorchnlp
大规模中文理解和生成联合模型PLUG PLUG (Pre-training for Language Understanding and Generation) 是一个270亿参数的大规模中文理解和生
260pytorchnlp
基于DeBERTaV2的中文Base预训练模型介绍(文档更新中) DeBERTaV2的中文Base预训练模型是使用wikipedia数据集、wudao数据集及中文网页数据,以masked langua
230pytorchnlp
目前模型在ModelScope提供在线体验功能,暂不支持pipeline推理、下载和训练,后续迭代更新版本会开放下载,敬请期待。 通义-文本生成图像大模型-中英文-通用领域 本模型基于多阶段文本到图
470pytorchmulti-modal
基于RoBERTa的中文Lite预训练模型介绍(文档更新中) RoBERTa的中文Lite预训练模型是使用广泛的中文数据和masked language model任务训练的中文自然语言理解预训练模型
260pytorchnlp
基于RoBERTa的中文Large预训练模型介绍(文档更新中) RoBERTa的中文Large预训练模型是使用广泛的中文数据和masked language model任务训练的中文自然语言理解预训练
220pytorchnlp
基于BERT的中文Lite预训练模型介绍(文档更新中) BERT的中文Lite预训练模型是使用wikipedia数据和masked language model任务训练的中文自然语言理解预训练模型。
190pytorchnlp
基于BERT的中文Large预训练模型介绍(文档更新中) BERT的中文Large预训练模型是使用wikipedia数据和masked language model任务训练的中文自然语言理解预训练模型
380pytorchnlp
基于DeBERTaV2的中文Lite预训练模型介绍(文档更新中) DeBERTaV2的中文Lite预训练模型是使用wikipedia数据集、wudao数据集及中文网页数据,以masked langua
220pytorchnlp
PoNet完形填空模型-英文-base介绍 本模型选用PoNet模型结构,通过Masked Language Modeling(MLM)和Sentence Structural Objective(S
440pytorchnlp
基于StructBERT的中文Lite预训练模型介绍 StructBERT的中文Large预训练模型是使用wikipedia数据和masked language model任务训练的中文自然语言理解预
250pytorchnlp
基于structbert的中文完形填空模型介绍 structbert中文完形填空模型是使用wikipedia数据和masked language model任务训练的中文自然语言理解预训练模型。 模型
190pytorchnlp
当前共161563个项目
×
寻找源码
源码描述
联系方式
提交