模型描述 该模型基于 bigscience/bloom-3b. 我们使用中文语料库将其词汇量从 250880 修剪到 46145,以减少 GPU 内存使用,现在模型总参数是2b5。 如何使用 在安装
330pytorchtransformer
模型描述 该模型基于 bigscience/bloom-1b1. 我们使用中文语料库将其词汇量从 250880 修剪到 46145,以减少 GPU 内存使用,现在模型总参数是800m。 如何使用 在
290pytorchnlp
模型描述 该模型基于 bigscience/bloom-560m. 我们使用中文语料库将其词汇量从 250880 修剪到 42437,以减少 GPU 内存使用,现在模型总参数是389m。 如何使用
280pytorchnlp
越南语通用领域分词模型介绍 任务介绍 越南语分词是将空格分隔的越南语音节(syllable)合并为具有语言学意义的越南语单词的过程,是越南语文本理解的基础模块。需要注意的是,越南语单词可能包含一个或多
350pytorchnlp
视觉问答介绍 视觉问答:给定一个问题和图片,通过图片信息来给出答案。需要模型具备多模态理解的能力,目前主流的方法大多是基于多模态预训练,最为知名的视觉问答数据集包括:VQA,GQA等。 模型描述 本任
450pytorchmulti-modal
印尼语电商域Query NER介绍 模型描述 本方法采用Transformer-CRF模型,使用XLM-RoBERTa(XLM-R)作为预训练模型底座。本模型主要用于给输入印尼语搜索query文本产出
360pytorchnlp
图像描述介绍 图像描述:给定一张图片,模型根据图片信息生成一句对应描述。可以应用于给一张图片配上一句文字或者打个标签的场景。本页面右侧提供了在线体验的服务,欢迎使用!注:本模型为mPLUG-图像描述的
450pytorchmulti-modal
越南语电商域Query NER介绍 模型描述 本方法采用Transformer-CRF模型,使用XLM-RoBERTa(XLM-R)作为预训练模型底座。本模型主要用于给输入越南语搜索query文本产出
310pytorchnlp
泰语电商域Query NER介绍 模型描述 本方法采用Transformer-CRF模型,使用XLM-RoBERTa(XLM-R)作为预训练模型底座。本模型主要用于给输入泰语搜索query文本产出命名
310pytorchnlp
印尼语电商域Title NER介绍 模型描述 本方法采用Transformer-CRF模型,使用XLM-RoBERTa作为预训练模型底座。本模型主要用于给输入越南语商品标题文本产出命名实体识别结果,
220pytorchnlp
泰语通用领域分词模型介绍 任务介绍 泰语分词目的是将连续的泰语字符分隔成具有语言学意义的泰语单词,是泰语文本理解的基础模块。 输入: …รถคันเก่าก็ยังเก็บเอาไว้ยังไม่ไ
370pytorchnlp
越南语电商域Title NER介绍 模型描述 本方法采用Transformer-CRF模型,使用XLM-RoBERTa作为预训练模型底座。本模型主要用于给输入越南语商品标题文本产出命名实体识别结果,
240pytorchnlp
泰语电商域Title NER介绍 模型描述 本方法采用Transformer-CRF模型,使用XLM-RoBERTa作为预训练模型底座。本模型主要用于给输入泰语商品标题文本产出命名实体识别结果,具体调
320pytorchnlp
模型描述 该模型基于 bigscience/bloom-1b7. 我们使用中文语料库将其词汇量从 250880 修剪到 46145,以减少 GPU 内存使用,现在模型总参数是1.4b。 如何使用 在
420pytorchnlp
模型描述 使用300G中文预训练语料进行训练 本模型主要用于多种场景输入的生成和续写。比如用户可以自行尝试输入各种内容,然后让模型去回答、续写或者根据指令回复 如何使用 在安装完成Modelscope
460pytorchtransformer
多语言中文摘要模型介绍 模型描述 本模型在预训练的多语言通用语言模型(Multilingual GLM 或 mGLM1)基础之上微调而来,可支持对101种不同语言的长文本做中文摘要。多语言通用语言模型
260pytorchnlp
Uni-Fold-Multimer 开源的蛋白质复合物结构预测模型 模型描述 输入蛋白质多聚体的一级结构(1D序列),预测蛋白质的三级结构(3D位置),同时给出预测结果的置信度。 期望模型使用方式以及
290pytorchscience
Uni-Fold-Monomer 开源的蛋白质单体结构预测模型 模型描述 输入蛋白质单体的一级结构(1D序列),预测蛋白质的三级结构(3D位置),同时给出预测结果的置信度。 期望模型使用方式以及适用范
300pytorchscience
Clone with HTTP http://www.modelscope.cn/jokerak/HNet.git
90
孟子中文BERT金融行业预训练模型 mengzi-bert-base-fin是一个针对金融场景的领域语言模型。本模型在mengzi-bert-base模型基础上, 继续使用20G财经新闻和研究报告进行
440pytorchnlp
当前共161629个项目
×
寻找源码
源码描述
联系方式
提交