Baichua 2 是[百川智能]推出的 Baichua 2 在多个权威的中文、英文和多语言的通用、领域 bechmark 上取得同尺寸 本次发布包含有 所有版本对学术研究完全开放。同时,开发者通过邮件申请并获得官方商用许可后,即可 欢迎阅读我们的技术报告 [Baichua 2: Ope Large-scale Laguage Models] 获取更多信息。 本次发布版本和下载链接见下表: | | 基座模型 | 对齐模型 | 对齐模型 4bits 量化 | |:---:|:--------------------:|:--------------------:|:--------------------------:| | 7B | [Baichua2-7B-Base] | [Baichua2-7B-Chat] | [Baichua2-7B-Chat-4bits] | | 13B | [Baichua2-13B-Base] | [Baichua2-13B-Chat] | [Baichua2-13B-Chat-4bits] |
Baichua 2
目录
模型介绍
快速开始
import torch
from modelscope import sapshot_dowload, AutoModelForCausalLM, AutoTokeizer,GeeratioCofig
model_dir = sapshot_dowload("baichua-ic/Baichua2-13B-Chat", revisio='v1.0.1')
tokeizer = AutoTokeizer.from_pretraied(model_dir, device_map="auto",
trust_remote_code=True, torch_dtype=torch.float16)
model = AutoModelForCausalLM.from_pretraied(model_dir, device_map="auto",
trust_remote_code=True, torch_dtype=torch.float16)
model.geeratio_cofig = GeeratioCofig.from_pretraied(model_dir)
messages = []
messages.apped({"role": "user", "cotet": "讲解一下“温故而知新”"})
respose = model.chat(tokeizer, messages)
prit(respose)
messages.apped({'role': 'assistat', 'cotet': respose})
messages.apped({"role": "user", "cotet": "背诵一下将进酒"})
respose = model.chat(tokeizer, messages)
prit(respose)
点击空白处退出提示
评论