API调用模型

我要开发同款
匿名用户2024年07月31日
29阅读
所属分类ai
开源地址https://modelscope.cn/models/yuanfang/yuanfang_agent

作品详情

Yuanfang Agent

介绍

模型任务:给定APIs候选集,设计和优化LLM的planning能力、插件机制,通过LLM sft、prompt优化等手段,完成某个场景下的特定任务。

模型训练方法:基于bloom-7b1模型,用LoRA微调。

训练数据集: https://modelscope.cn/datasets/modelscope/mshackathon23agenttrain_dev/files

在线Demo平台

请至以下创空间中查看

https://modelscope.cn/studios/jiapingW/YuanFang/summary

使用方法

1 从模型文件中下载model_state_dict.ptconfiguration.json文件

2 执行下面代码

import torch
from peft import PeftModel, PeftConfig
from transformers import AutoModelForCausalLM, AutoTokenizer
from transformers import AutoTokenizer, AutoConfig, AutoModelForCausalLM

# 从本地文件夹加载模型
model_path = "/path/to/local/folder/model_state_dict.pt"
config_path = "/path/to/local/folder/configuration.json"

model = AutoModelForCausalLM.from_pretrained(model_path, return_dict=True, load_in_8bit=True, device_map='auto')
config = PeftConfig.from_pretrained(config_path)
tokenizer = AutoTokenizer.from_pretrained("bigscience/bloom-7b1")

# Load the Lora model
model = PeftModel.from_pretrained(model, peft_model_id)

3 模型加载2.0

from transformers import AutoModel, AutoTokenizer, AutoModelForCausalLM
from peft import get_peft_model, LoraConfig, PeftModel, PeftConfig


# 加载peft配置
# 将 adapter_config.json 和 adapter_model.bin 下载到本地outputs文件夹下
peft_model_id = "outputs/"
peft_config = PeftConfig.from_pretrained(peft_model_id)

# 加载tokenizer
tokenizer = AutoTokenizer.from_pretrained(peft_config.base_model_name_or_path)

# 结合基础模型和微调结果,加载模型
model = AutoModelForCausalLM.from_pretrained(peft_config.base_model_name_or_path)
model = PeftModel.from_pretrained(model, peft_model_id)
model = model.to('cuda')
model.eval()
声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论