百川2-7B-预训练模型

我要开发同款
匿名用户2024年07月31日
18阅读
开发技术baichuan、pytorch
所属分类ai
开源地址https://modelscope.cn/models/baichuan-inc/Baichuan2-7B-Base
授权协议other

作品详情

Baichuan 2

? 百川大模型在线对话平台 已正式向公众开放 ?

目录

模型介绍

  • Baichuan 2 是百川智能推出的新一代开源大语言模型,采用 2.6 万亿 Tokens 的高质量语料训练。
  • Baichuan 2 在多个权威的中文、英文和多语言的通用、领域 benchmark 上取得同尺寸最佳的效果。
  • 本次发布包含有 7B13BBaseChat 版本,并提供了 Chat 版本的 4bits 量化
  • 所有版本对学术研究完全开放。同时,开发者通过邮件申请并获得官方商用许可后,即可免费商用,请参考协议章节。
  • 欢迎阅读我们的技术报告 Baichuan 2: Open Large-scale Language Models 获取更多信息。

本次发布版本和下载链接见下表:

基座模型 对齐模型 对齐模型 4bits 量化
7B Baichuan2-7B-Base Baichuan2-7B-Chat Baichuan2-7B-Chat-4bits
13B Baichuan2-13B-Base Baichuan2-13B-Chat Baichuan2-13B-Chat-4bits

快速开始

依赖安装

pip install modelscope -U
pip install xformers==0.0.21
from modelscope.utils.constant import Tasks
from modelscope.pipelines import pipeline
text_generation_zh  = pipeline(task=Tasks.text_generation, 
                               model='baichuan-inc/Baichuan2-7B-Base', 
                               device_map='auto',model_revision='v1.0.4')
text_generation_zh._model_prepare = True
result_zh = text_generation_zh('登鹳雀楼->王之涣\n夜雨寄北->', 
                               min_length=10, max_length=64, num_beams=3, temperature=0.3, do_sample=False, early_stopping=True, top_k=50, top_p=0.85, repetition_penalty=1.1, length_penalty=1.2, no_repeat_ngram_size=6)
print(result_zh)

Benchmark 结果

我们在通用法律医疗数学代码多语言翻译六个领域的中英文权威数据集上对模型进行了广泛测试,更多详细测评结果可查看GitHub

7B 模型结果

C-Eval MMLU CMMLU Gaokao AGIEval BBH
5-shot 5-shot 5-shot 5-shot 5-shot 3-shot
GPT-4 68.40 83.93 70.33 66.15 63.27 75.12
GPT-3.5 Turbo 51.10 68.54 54.06 47.07 46.13 61.59
LLaMA-7B 27.10 35.10 26.75 27.81 28.17 32.38
LLaMA2-7B 28.90 45.73 31.38 25.97 26.53 39.16
MPT-7B 27.15 27.93 26.00 26.54 24.83 35.20
Falcon-7B 24.23 26.03 25.66 24.24 24.10 28.77
ChatGLM2-6B 50.20 45.90 49.00 49.44 45.28 31.65
Baichuan-7B 42.80 42.30 44.02 36.34 34.44 32.48
Baichuan2-7B-Base 54.00 54.16 57.07 47.47 42.73 41.56

13B 模型结果

C-Eval MMLU CMMLU Gaokao AGIEval BBH
5-shot 5-shot 5-shot 5-shot 5-shot 3-shot
GPT-4 68.40 83.93 70.33 66.15 63.27 75.12
GPT-3.5 Turbo 51.10 68.54 54.06 47.07 46.13 61.59
LLaMA-13B 28.50 46.30 31.15 28.23 28.22 37.89
LLaMA2-13B 35.80 55.09 37.99 30.83 32.29 46.98
Vicuna-13B 32.80 52.00 36.28 30.11 31.55 43.04
Chinese-Alpaca-Plus-13B 38.80 43.90 33.43 34.78 35.46 28.94
XVERSE-13B 53.70 55.21 58.44 44.69 42.54 38.06
Baichuan-13B-Base 52.40 51.60 55.30 49.69 43.20 43.01
Baichuan2-13B-Base 58.10 59.17 61.97 54.33 48.17 48.78

训练过程模型

除了训练了 2.6 万亿 Tokens 的 Baichuan2-7B-Base 模型,我们还提供了在此之前的另外 11 个中间过程的模型(分别对应训练了约 0.2 ~ 2.4 万亿 Tokens)供社区研究使用(训练过程checkpoint下载)。下图给出了这些 checkpoints 在 C-Eval、MMLU、CMMLU 三个 benchmark 上的效果变化:

checkpoint

训练过程模型使用

我们提供的训练过程模型modelrevision从 train00220B ~ train_02420B ,以220B为一个间隔,使用方式如下:

from modelscope.utils.constant import Tasks
from modelscope.pipelines import pipeline
text_generation_zh  = pipeline(task=Tasks.text_generation,
                               model='baichuan-inc/Baichuan2-7B-Intermediate-Checkpoints',
                               model_revision='train_00220B',
                               device_map='auto')
text_generation_zh._model_prepare = True
result_zh = text_generation_zh('登鹳雀楼->王之涣\n夜雨寄北->', 
                               min_length=10, max_length=64, num_beams=3,temperature=0.3,
                               do_sample=False, early_stopping=True,top_k=50,top_p=0.85,
                               repetition_penalty=1.1, length_penalty=1.2, no_repeat_ngram_size=6)
print(result_zh)

声明与协议

声明

我们在此声明,我们的开发团队并未基于 Baichuan 2 模型开发任何应用,无论是在 iOS、Android、网页或任何其他平台。我们强烈呼吁所有使用者,不要利用 Baichuan 2 模型进行任何危害国家社会安全或违法的活动。另外,我们也要求使用者不要将 Baichuan 2 模型用于未经适当安全审查和备案的互联网服务。我们希望所有的使用者都能遵守这个原则,确保科技的发展能在规范和合法的环境下进行。

我们已经尽我们所能,来确保模型训练过程中使用的数据的合规性。然而,尽管我们已经做出了巨大的努力,但由于模型和数据的复杂性,仍有可能存在一些无法预见的问题。因此,如果由于使用 Baichuan 2 开源模型而导致的任何问题,包括但不限于数据安全问题、公共舆论风险,或模型被误导、滥用、传播或不当利用所带来的任何风险和问题,我们将不承担任何责任。

协议

[Email]: mailto:opensource@baichuan-inc.com

声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论