匿名用户2024年07月31日
28阅读
所属分类ai、baichuan、pytorch
开源地址https://modelscope.cn/models/FrankWhh/TGI
授权协议other

作品详情

Baichuan 2

? 百川大模型在线对话平台 已正式向公众开放 ?

目录

模型介绍

  • Baichuan 2 是[百川智能]推出的新一代开源大语言模型,采用 2.6 万亿 Tokens 的高质量语料训练。

  • Baichuan 2 在多个权威的中文、英文和多语言的通用、领域 benchmark 上取得同尺寸最佳的效果。

  • 本次发布包含有 7B13BBaseChat 版本,并提供了 Chat 版本的 4bits 量化

  • 所有版本对学术研究完全开放。同时,开发者通过邮件申请并获得官方商用许可后,即可免费商用,请参考协议章节。

  • 欢迎阅读我们的技术报告 [Baichuan 2: Open Large-scale Language Models] 获取更多信息。

本次发布版本和下载链接见下表:

| | 基座模型 | 对齐模型 | 对齐模型 4bits 量化 |

|:---:|:--------------------:|:--------------------:|:--------------------------:|

| 7B | [Baichuan2-7B-Base] | [Baichuan2-7B-Chat] | [Baichuan2-7B-Chat-4bits] |

| 13B | [Baichuan2-13B-Base] | [Baichuan2-13B-Chat] | [Baichuan2-13B-Chat-4bits] |

快速开始

import torch

from modelscope import snapshot_download, AutoModelForCausalLM, AutoTokenizer,GenerationConfig

model_dir = snapshot_download("baichuan-inc/Baichuan2-13B-Chat", revision='v1.0.1')

tokenizer = AutoTokenizer.from_pretrained(model_dir, device_map="auto", 

                              trust_remote_code=True, torch_dtype=torch.float16)

model = AutoModelForCausalLM.from_pretrained(model_dir, device_map="auto", 

                              trust_remote_code=True, torch_dtype=torch.float16)

model.generation_config = GenerationConfig.from_pretrained(model_dir)

messages = []

messages.append({"role": "user", "content": "讲解一下“温故而知新”"})

response = model.chat(tokenizer, messages)

print(response)

messages.append({'role': 'assistant', 'content': response})

messages.append({"role": "user", "content": "背诵一下将进酒"})

response = model.chat(tokenizer, messages)

print(response)
声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论