Bloom预训练生成模型-中文-800m

我要开发同款
匿名用户2024年07月31日
30阅读
所属分类ai、bloom、pytorch、bloom、mengzi、Langboat、澜舟科技、transformer、nlp
开源地址https://modelscope.cn/models/langboat/bloom-800m-zh
授权协议Apache License 2.0

作品详情

模型描述

该模型基于 bigscience/bloom-1b1.

我们使用中文语料库将其词汇量从 250880 修剪到 46145,以减少 GPU 内存使用,现在模型总参数是800m。

如何使用

在安装完成Modelscope之后即可使用text-generation的能力

代码范例

from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
text_generation_zh = pipeline(Tasks.text_generation, model='langboat/bloom-800m-zh', model_revision='v1.0.0')
result_zh = text_generation_zh("中国的首都是")
print(result_zh['text'])

模型局限性以及可能的偏差

模型在大量无监督数据上训练,没有加入下游任务,所以是通用的预训练模型,有可能产生一些偏差,请用户自行评测后决定如何使用。

声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论