TeleChat-12B-V2-GPTQ-Int4

我要开发同款
匿名用户2024年07月31日
24阅读
所属分类ai、telechat、pytorch
开源地址https://modelscope.cn/models/swift/TeleChat-12B-V2-GPTQ-Int4

作品详情

About Quantization

我们使用modelscope swift仓库进行GPTQ 4bit量化. 量化文档可以查看这里. 量化命令如下:

We use the modelscope swift repository to perform GPTQ 4bit quantization. Quantization documentation can be found here. The quantization command is as follows:

# Experimental Environment: A100
OMP_NUM_THREADS=14 \
    swift export \
    --quant_bits 4 \
    --model_type telechat-12b-v2 \
    --quant_method gptq \
    --dataset alpaca-zh alpaca-en sharegpt-gpt4-mini \
    --quant_seqlen 4096

Inference:

CUDA_VISIBLE_DEVICES=0 swift infer --model_type telechat-12b-v2-gptq-int4

SFT:

CUDA_VISIBLE_DEVICES=0 swift sft --model_type telechat-12b-v2-gptq-int4 --dataset leetcode-python-en

Original Model:

telechat-12b-v2

声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论