安装运行
pip install -r requirements.txt
python main.py # 需要自动答题时解除main函数中的start_answer注释
改进
当前使用的时Glm4-Air,效果差点,需要在LLM/llm.py更改model为Glm4答题效果更佳
团队token位置:api.py中
项目方案介绍
该方案的核心思想就是将原子的问题交给大模型回答。
期间如果遇到其他问题,应该由单独的llm去解决而不应该全部依赖Agent。 如用户输入纠错、模型返回结果混乱、案号提取等等小问题都有对应的llm。
解题步骤
- 将问题分解成n个的完整的子问题
- 将第一个小问题对Agent进行提问
- 将Agent的回答当作背景知识结合第二个小问题进行提问
- 循环以上步骤
- 由大模型结合用户问题和小问题答案进行总结
优点介绍
- 在解决完一个小问题时,将对话上下文中的无用信息都总结为一个小的答案,无任何干扰信息,不需要进行信息抽取。
- Agent更加专注,只需要选择工具,生成参数,降低幻觉产生。
- 多个llm相互配合,犹如一个团队解决一个问题,每个llm各司其职。
- 可以使用不同能力的模型,比如复杂的问题使用GLM4,简单问题使用GLM4-Air,降低tokens消耗。
评论