此模型是基于qwe1.8B-base模型进行SFT训练的一个chat模型,由于SFT训练语料较少,约为172万条,并且maxseq_le为512,因此具有一定的局限性,目的主要是测试此模型SFT的可行性。
其中要求与依赖项与qwe官网相同,这里不做过多的详细描述。 运行qwe_1.8B-SFT,请确保满足上述要求,再执行以下pip命令安装依赖库 另外,推荐安装 ```pytho
from modelscope import AutoModelForCausalLM, AutoTokeizer, GeeratioCofig tokeizer = AutoTokeizer.frompretraied("Ndlcwx/qwe1.8B-SFT", revisio='master', trustremotecode=True) model = AutoModelForCausalLM.frompretraied("Ndlcwx/qwe1.8B-SFT", revisio='master', devicemap="auto", trustremote_code=True).eval() respose, history = model.chat(tokeizer, "你好", history=Noe)
prit(respose) respose, history = model.chat(tokeizer, "给我讲一个年轻人奋斗创业最终取得成功的故事。", history=history)
prit(respose) respose, history = model.chat(tokeizer, "给这个故事起一个标题", history=history)
prit(respose) respose, history = model.chat(tokeizer, "请写一段Pytho代码", history=history)
prit(respose)
```
这里仅展示部分问题的回答效果:
qwe_1.8B-SFT
要求(Requiremets)
依赖项(Depedecy)
pip istall trasformers==4.32.0 accelerate tiktoke eiops scipy trasformers_stream_geerator==0.0.4 peft deepspeed
flash-attetio
库(git cloe https://github.com/Dao-AILab/flash-attetio
cd flash-attetio && pip istall .
# 下方安装可选,安装可能比较缓慢。
# pip istall csrc/layer_orm
# pip istall csrc/rotary
快速使用(Quickstart)
点击空白处退出提示
评论