通义千问1.5-32B-对话-GPTQ-Int4-修复版

我要开发同款
匿名用户2024年07月31日
72阅读
所属分类ai、qwen2、Pytorch、chat、int4、gptq、32b、qwen
开源地址https://modelscope.cn/models/tclf90/Qwen1.5-32B-Chat-GPTQ-Int4-Repair
授权协议other

作品详情

Qwen1.5-32B-Chat-GPTQ Int4 模型量化

【模型更新日期】

2024-05-30

重制并补全generation_config.json文件

【介绍】

千问官方Qwen1.5-32B-Chat量化模型存在一定程度的量化损失,并导致例如无限!!!!!!感叹号等问题。这里集中做一次修复。

模型名 量化类型 量化比特 其余量化参数 评价
tclf90/Qwen1.5-32B-Chat-GPTQ-Int4-Repair GPTQ int4 group128 测试基线
无明显的、量化造成的对话失真
tclf90/Qwen1.5-32B-Chat-GPTQ-Int3 GPTQ int3 group128 非常推荐
对话、指令能力与其余量化版本,没有明显差别,但模型体积最小、占用显存最少,可以吞吐更长上下文,推理速度也比int4快10%
tclf90/Qwen1.5-32B-Chat-AWQ-G32 AWQ int4 group32 没有特别亮点
尝试用更小的group尺寸来减少量化损失,但在Qwen1.5-32B-Chat这个模型上没有表现出区别

注:经测试,Qwen1.5-32B-Chat 的Int2量化,会胡言乱语,完全失去模型能力。

【引用】

原模型 Qwen1.5-32B-Chat

官方量化模型 Qwen1.5-32B-Chat-GPTQ-Int4

量化工具 AutoGPTQ

声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论