通义千问1.5-32B-对话-AWQ-Int4-Group32

我要开发同款
匿名用户2024年07月31日
37阅读
所属分类ai、qwen2、Pytorch、chat、group32、int4、awq、32B、qwen
开源地址https://modelscope.cn/models/tclf90/Qwen1.5-32B-Chat-AWQ-G32
授权协议other

作品详情

Qwen1.5-32B-Chat-AWQ Int4 Group32 模型量化

【模型更新日期】

2024-05-24

【介绍】

千问官方Qwen1.5-32B-Chat量化模型存在一定程度的量化损失,并导致例如无限!!!!!!感叹号等问题。这里集中做一次修复。

模型名 量化类型 量化比特 其余量化参数 评价
tclf90/Qwen1.5-32B-Chat-GPTQ-Int4-Repair GPTQ int4 group128 测试基线
无明显的、量化造成的对话失真
tclf90/Qwen1.5-32B-Chat-GPTQ-Int3 GPTQ int3 group128 非常推荐
对话、指令能力与其余量化版本,没有明显差别,但模型体积最小、占用显存最少,可以吞吐更长上下文,推理速度也比int4快10%
tclf90/Qwen1.5-32B-Chat-AWQ-G32 AWQ int4 group32 没有特别亮点
尝试用更小的group尺寸来减少量化损失,但在Qwen1.5-32B-Chat这个模型上没有表现出区别

注:经测试,Qwen1.5-32B-Chat 的Int2量化,会胡言乱语,完全失去模型能力。

【引用】

原模型 Qwen1.5-32B-Chat

量化工具 AutoAWQ

声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论