民法模型

我要开发同款
匿名用户2024年07月31日
24阅读
所属分类ai、internlm2、Pytorch
开源地址https://modelscope.cn/models/admlrz/lirongzhen-pufa-model
授权协议Apache License 2.0

作品详情

Clone with HTTP

 git clone https://www.modelscope.cn/admlrz/lirongzhen-pufa-model.git

<张三普法模型>介绍

本模型是基于InternLM-chat-7B预训练模型,通过原有大模型法律数据+民法典问答+维权进行FineTune,训练出来的微调模型。

模型通过120M的jsonl数据进行了4个epoch的微调训练生成。

模型描述

本模型是用于实现咨询法律问题的对话。

期望模型使用方式以及适用范围

使用gradio或者streamlit调用就行了。本地也可以直接使用命令行方式调用。

如何使用

命令行一个典型的方式就是编辑一个cli_demo.py的文件:

import torch
from modelscope import AutoTokenizer, AutoModelForCausalLM
from tools.transformers.interface import GenerationConfig, generate_interactive

model_name_or_path = "your path" 

tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(model_name_or_path, trust_remote_code=True, torch_dtype=torch.bfloat16, device_map='auto')
model = model.eval()

messages = []
#generation_config = GenerationConfig(max_length=max_length, top_p=0.8, temperature=0.8, repetition_penalty=1.002)

response, history = model.chat(tokenizer, "你好", history=[])
print(response)
response, history = model.chat(tokenizer, "民法典调整了什么?", history=history)
print(response)

然后 python cli_demo.py即可。

训练数据介绍

    后续补充

模型训练流程

​ 本项目 使用 xtuner0.1.9 训练,在 internlm-chat-7b 上进行微调,模型地址

  1. 微调方法如下
   xtuner train ${YOUR_CONFIG} --deepspeed deepspeed_zero2
  • --deepspeed 表示使用 DeepSpeed ? 来优化训练过程。XTuner 内置了多种策略,包括 ZeRO-1、ZeRO-2、ZeRO-3 等。如果用户期望关闭此功能,请直接移除此参数。
  1. 将保存的 .pth 模型(如果使用的DeepSpeed,则将会是一个文件夹)转换为 LoRA 模型:
   export MKL_SERVICE_FORCE_INTEL=1
   xtuner convert pth_to_hf ${YOUR_CONFIG} ${PTH} ${LoRA_PATH}

3.将LoRA模型合并入 HuggingFace 模型:

xtuner convert merge ${Base_PATH} ${LoRA_PATH} ${SAVE_PATH}

数据评估及结果

后续补充

相关论文以及引用信息

后续补充

声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论