TRLLM-Model-4bit_turbomind

我要开发同款
匿名用户2024年07月31日
25阅读
所属分类aiPytorch
开源地址https://modelscope.cn/models/heitao5200/TRLLM-Model-4bit_turbomind
授权协议Apache License 2.0

作品详情

该模型当前使用的是默认介绍模版,处于“预发布”阶段,页面仅限所有者可见。
请根据模型贡献文档说明,及时完善模型卡片内容。ModelScope平台将在模型卡片完善后展示。谢谢您的理解。

Clone with HTTP

 git clone https://www.modelscope.cn/heitao5200/TRLLM-Model-4bit_turbomind.git

计算 minmax

lmdeploy lite calibrate /root/code/HT/TRLLM-Model-v2 --calib-dataset "c4" --calib-samples 128 --calib-seqlen 2048 --work-dir ./trll2-model-4bit

量化权重模型

lmdeploy lite auto_awq /root/code/HT/TRLLM-Model-v2 --w-bits 4 --w-group-size 128 --work-dir ./trll2-model-4bit

量化后的模型转换成turbomind 格式

lmdeploy convert internlm2-chat-7b ./trll2-model-4bit --dst-path ./workspacetrll2model4bitturbomind --model-format awq --group-size 128

模型测评

python run.py --custom-dataset-path /root/code/HT/mcqdata.jsonl --hf-path /root/code/HT/trll2-model-4bit --tokenizer-path /root/code/HT/trll2-model-4bit --tokenizer-kwargs paddingside='left' truncation='left' trustremotecode=True --model-kwargs trustremotecode=True device_map='auto' --max-seq-len 2048 --max-out-len 16 --batch-size 4 --num-gpus 1 --debug

模型测试

lmdeploy chat turbomind ./workspacetrll2model4bitturbomind

声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论