通义千问2-14B-Merge-GPTQ-Int4-量化修复

我要开发同款
匿名用户2024年07月31日
51阅读
所属分类ai、qwen2、Pytorch、vLLM、量化修复、int4、gptq、qwen2
开源地址https://modelscope.cn/models/tclf90/Qwen2-14B-merge-GPTQ-Int4
授权协议qwen

作品详情

通义千问2-14B-Merge-GPTQ-Int4-量化修复

HF原模型 paperplanedeemo/Qwen2-14B-merge

【模型更新日期】

2024-06-13

【模型大小】

7.9GB

【修复内容】

  1. 对GPTQ量化的校准做了额外优化;减少量化模型的 1.乱吐字2.无限循环3.长文能力丢失等情况。

【更新日志】

2024-06-13
首次commit

【介绍】

注意:非官方模型

Qwen2-14B-merge is a merge of the following models using mergekit:

dtype: float16
merge_method: passthrough
slices:
  - sources:
      - layer_range: [0, 6]
        model: Qwen/Qwen2-7B-Instruct
  - sources:
      - layer_range: [3, 9]
        model: Qwen/Qwen2-7B-Instruct
  - sources:
      - layer_range: [6, 12]
        model: Qwen/Qwen2-7B-Instruct
  - sources:
      - layer_range: [9, 15]
        model: Qwen/Qwen2-7B-Instruct
  - sources:
      - layer_range: [12, 18]
        model: Qwen/Qwen2-7B-Instruct
  - sources:
      - layer_range: [15, 21]
        model: Qwen/Qwen2-7B-Instruct
  - sources:
      - layer_range: [18, 24]
        model: Qwen/Qwen2-7B-Instruct
  - sources:
      - layer_range: [21, 28]
        model: Qwen/Qwen2-7B-Instruct

更多详情…

【同期量化修复模型】

待工作完成后补充…

【模型下载】

from modelscope import snapshot_download
model_dir = snapshot_download('tclf90/模型名', cache_dir="本地路径")

vLLM推理(目前仅限Linux)】

1. Python 简易调试

待工作完成后补充…

2. 类ChatGPT RESTFul API Server

>>> python -m vllm.entrypoints.openai.api_server --model 本地路径/tclf90/模型名称
声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论