抄清赋能

我要开发同款
jiahss2024年02月25日
148阅读
开发技术torch、算法设计、机器学习、自然语言处理
所属分类人工智能

作品详情

现有的抄清摘要抽取算法主要基于用户主观意识的文字生成,带有主观偏见,但是抄清工作赋能的目标是尽可能少的利用原文获取更多信息,保存更多的信息。
本项目将基于自然语言处理技术对抄清数据进行分析,快速挖掘出重要信息,并通过结构化形式展示出来。方便其他人员的信息的快速阅识。主要包括如下三步任务:

1、将诸如PDF、图片等格式抄清信息通过特定算法识别出来转为纯文本信息;

2、利用训练的算法先对文本信息进行分类处理,再基于不同类别训练的算法模型从完整的抄清信息中快速挖掘出重要信息;

3、通过直观的结构化形式展示出来。


2、拟解决的关键问题
1、将抄清信息从不同格式文件中提取出来
抄清信息储存的格式丰富多样,包括PDF、TXT、图片、DOC、EXCEL等,将抄清信息从这些不同格式中抽取出来是下游任务进行的关键,本项目将用诸如pdfplumber、PaddleOCR等python库并结合规则算法将文本信息从上述格式中抽取出来。

2、筛选任务目标需要的模型
针对本项目,从文本基础预处理出发到抄清重要信息任务展示,选取大量的领域较优模型进行对比分析,筛选适合本任务的算法模型进行后续的优化研究。

3、数据不足,如何对模型进行有效的监督学习
当前模型未接入“抄清工作”历史沉底的带行业特征的语料库,因此为了解决监督学习任务标签数据不足问题,考虑用以下两种方法解决:
①、预训练+微调:首先在一个大规模无监督数据语料库上对一个强大的任务无关模型进行预训练,之后再使用一小组标签样本在下游任务上对该模型进行微调。
②、预训练+数据集自动生成:给定一个功能强大的预训练模型(chatGPT),利用该模型来自动生成更多得多的标签样本。再将生成的标签数据通过人工修订后座位标签数据进行模型训练。

4、如何将完整的人类反馈强化学习(RLHF)步骤复现到训练的大模型中,使大模型在针对任务上效果更优。
现有开源大模型都只得到了人类反馈强化学习(RLHF)中第一步的监督微调模型,没有进行后续的对齐和微调工作。
RLHF算法复现:
RLHF第一步(Stage1)是supervised-fintuning,即使用上文提到的数据集进行模型微调。
RLHF第二步(Stage2)训练了奖励模型,它通过对于同一个prompt的不同输出进行人工排序,得到对应分数,监督训练奖励模型。
RLHF第三步(Stage3)使用了强化学习算法,是训练流程中最复杂的一部分。
声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论