ChatTruth-7B

我要开发同款
匿名用户2024年07月31日
22阅读
所属分类ai、qwen、Pytorch
开源地址https://modelscope.cn/models/mirror013/ChatTruth-7B

作品详情

ChatTruth-7B

ChatTruth-7B 在Qwen-VL的基础上,使用精心设计的数据进行了优化训练。与Qwen-VL相比,模型在大分辨率上得到了大幅提升。创新性提出Restore Module使大分辨率计算量大幅减少。

image/png

安装要求 (Requirements)

  • transformers 4.32.0

  • python 3.8 and above

  • pytorch 1.13 and above

  • CUDA 11.4 and above


快速开始 (Quickstart)

from transformers import AutoModelForCausalLM, AutoTokenizer
from transformers.generation import GenerationConfig
import torch
torch.manual_seed(1234)
model_path = 'ChatTruth-7B' # your downloaded model path.

tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)

# use cuda device
model = AutoModelForCausalLM.from_pretrained(model_path, device_map="cuda", trust_remote_code=True).eval()

model.generation_config = GenerationConfig.from_pretrained(model_path, trust_remote_code=True)
model.generation_config.top_p = 0.01

query = tokenizer.from_list_format([
    {'image': 'demo.jpeg'},
    {'text': '图片中的文字是什么'},
])
response, history = model.chat(tokenizer, query=query, history=None)
print(response)

# 昆明太厉害了
声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论