internLM-20b-chat-gguf

我要开发同款
匿名用户2024年07月31日
23阅读
所属分类aiPytorch
开源地址https://modelscope.cn/models/ruidong/internLM-20b-chat-gguf
授权协议Apache License 2.0

作品详情

介绍

本模型从官方发布的版本ShanghaiAILaboratory/internlm-20b q4_0量化得到。量化后11GB,基本可以在mac 16GB以上配置机器上运行。 上海人工智能实验室与商汤科技联合香港中文大学和复旦大学正式推出书生·浦语200亿参数模型版本 InternLM-20B ,InternLM-20B 在超过 2.3T Tokens 包含高质量英文、中文和代码的数据上进行预训练,其中 Chat 版本还经过了 SFT 和 RLHF 训练,使其能够更好、更安全地满足用户的需求。 总体而言,InternLM-20B具有以下的特点: 优异的综合性能
很强的工具调用功能
支持16k语境长度(通过推理时外推)
更好的价值对齐

说明

internlm的gguf是基于llama.cpp b1204做的转换。如果想要运行也需要这个版本的代码。最新代码不能工作。
internlm2的gguf是基于最新的代码做的转换。模型本身按照下面链接给的方法做了修改,权做尝鲜的一个试用版本:
https://github.com/InternLM/InternLM/issues/612

描述

可以使用llama.cpp启动运行推断。支持命令行推断和openai rest api规格的推断。详细配置参考llama.cpp github readme。实际的推断速度很惊艳。值得期待。

llama服务器配置参考:
https://github.com/ggerganov/llama.cpp/blob/master/examples/server/README.md
openai rest api规格配置参考:
https://github.com/ggerganov/llama.cpp/blob/master/examples/server/README.md#api-like-oai

注意

本模型以技术交流为目的,所有使用都是用户自己负责。

Clone with HTTP

 git clone https://www.modelscope.cn/ruidong/internLM-20b-chat-gguf.git
声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论