proginn1520097197
1月前来过
全职 · 2000/日  ·  43500/月
工作时间: 工作日10:00-18:00工作地点: 远程
服务企业: 1家累计提交: 1工时
联系方式:
********
********
********
聊一聊

使用APP扫码聊一聊

个人介绍

我是程序员客栈的zoudaokou,一名NLP算法研发; 我毕业于苏州大学,担任过微软的的高级研发; 负责过基于ChatGPT的文档搜索聊天机器人,舆情系统,知识图谱工作台的开发; 熟练使用python,pytorch,机器学习,自然语言处理,GPT,ChatGPT; 如果我能帮上您的忙,请点击“立即预约”或“发布需求”!

工作经历

  • 2017-10-14 -至今微软中国高级研发

    主要关注于nlp相关任务,特别是对话机器人领域,知识图片,文本信息提取以及大模型的微调和应用。

教育经历

  • 2011-09-01 - 2014-06-28苏州大学计算机应用技术硕士

  • 2007-09-01 - 2011-06-28苏州大学计算机科学与技术本科

技能

深度学习
机器学习
自然语言处理
0
1
2
3
4
5
0
1
2
3
4
5
作品
PDF文件创ChatGPT聊天机器人

使用新的GPT-4 api,为多个大型PDF文件建立一个chatGPT聊天机器人。 使用的技术栈包括LangChain、Pinecone、Typescript、Openai和Next.js。LangChain是一个框架,使其更容易建立可扩展的AI/LLM应用程序和聊天机器人。Pinecone是一个矢量库,用于存储嵌入和你的PDF的文本,以便以后检索类似的文档。

0
2023-04-18 15:51
基于ChatGLM的领域知识微调

ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。实现了基于 P-Tuning v2 的高效参数微调方法 (使用指南) ,INT4 量化级别下最低只需 7GB 显存即可启动微调。

0
2023-04-18 15:41
基于ChatGPT的文档搜索理解聊天机器人

主导基于 Semantic Search 和 ChatGPT 的文档搜索聊天机器人项目。通过加入相应的前处理技术,利用 Semantic Search 突破 ChatGPT 输入 token 数量的限制,使 ChatGPT 能够理解并回答大量文档相关的问题。同时,采用加入相应的 Prompt 和后处理技术,控制机器人的输出内容范围和质量。项目实现了高效的文档搜索聊天机器人,为用户提供了优质的搜索和问答服务。

0
2023-04-18 15:37
更新于: 2023-04-18 浏览: 323