由Base模型ORPO(长对话偏好)
DPO-EN-ZH-20k
- 包含大量偏好对齐的问答对数据<好,差>,有助于进一步提升chat模型的对话质量,使其生成内容更加详细、适合人类偏好。
frameworks:
- Pytorch license: Apache License 2.0
SDK下载
#安装ModelScope
pip install modelscope
#SDK模型下载
from modelscope import snapshot_download
model_dir = snapshot_download('zhuangxialie/Llama3-Chinese-ORPO')
Git下载
#Git模型下载
git clone https://www.modelscope.cn/zhuangxialie/Llama3-Chinese-ORPO.git
如果您是本模型的贡献者,我们邀请您根据模型贡献文档,及时完善模型卡片内容。
评论