食神2(1.8B)

我要开发同款
匿名用户2024年07月31日
27阅读
所属分类ai、internlm2、Pytorch
开源地址https://modelscope.cn/models/zhanghuiATchina/zhangxiaobai_shishen2_1_8b
授权协议Apache License 2.0

作品详情

Clone with HTTP

 git clone https://www.modelscope.cn/zhanghuiATchina/zhangxiaobai_shishen2_1_8b.git

<食神2(1.8B)>介绍

本模型是基于InternLM2-chat-1.8B预训练模型,通过 XiaChuFang Recipe Corpus食谱语料库进行FineTune,训练出来的微调模型。

由于条件所限,现在的模型仅使用了10万个菜谱进行了1个epoch的训练。

模型描述

本模型是用于实现咨询菜谱的对话。

期望模型使用方式以及适用范围

使用gradio或者streamlit调用就行了。本地也可以直接使用命令行方式调用。

如何使用

命令行一个典型的方式就是编辑一个cli_demo.py的文件:

import torch
from transformers import AutoTokenizer, AutoModelForCausalLM


model_name_or_path = "xxx"

tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(model_name_or_path, trust_remote_code=True, torch_dtype=torch.bfloat16, device_map='auto')
model = model.eval()

messages = []

print("=============Welcome to InternLM2 chatbot, type 'exit' to exit.=============")

while True:
    input_text = input("User  >>> ")
    if input_text == "exit":
        break
    response, history = model.chat(tokenizer, input_text, history=messages)
    #messages.append((input_text, response))
    print(f"robot >>> {response}")

然后 python cli_demo.py即可。

训练数据介绍

XiaChuFang Recipe Corpus

● 发布方:清华大学,百度,北京通用人工智能研究院

● 发布时间:2020

● 简介: 完整的食谱语料库包含1,520,327种中国食谱。其中,1,242,206食谱属于30,060菜肴。一道菜平均有41.3个食谱。食谱的平均长度是224个字符。最大长度为62,722个字符,最小长度为10个字符。食谱由415,272位作者贡献。其中,最有生产力的作者上传5,394食谱。我们提供脱敏的作者信息。

● 下载地址https://opendatalab.org.cn/XiaChuFangRecipeCorpus

● 论文地址https://arxiv.org//pdf/2210.114

模型训练流程

后续补充

数据评估及结果

后续补充

相关论文以及引用信息

后续补充

声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论