ai_coder
全职 · 800/日  ·  17400/月
工作时间: 工作日09:00-21:00、周末09:00-21:00工作地点: 远程
服务企业: 0家累计提交: 0工时
联系方式:
********
********
********
聊一聊

使用APP扫码聊一聊

个人介绍

我是程序员客栈的【Breaker】,一名专注于技术落地的实战派开发者。毕业于南阳理工学院计算机科学与技术专业,拥有多年项目开发与管理经验,擅长将技术应用于实际业务场景,解决复杂问题。

在职业生涯中,我参与并主导了多个项目的开发与实施,涉及金融、旅游、流量运营以及国外项目等多个领域。无论是系统架构设计、数据处理,还是算法优化,我都能从业务需求出发,提供切实可行的技术解决方案。

我始终坚信“终身学习”的力量,保持对新技术的敏锐度和学习热情,不断提升自己的技术能力。凭借强大的毅力和执行力,我能够在项目中快速适应并攻克难题,确保项目高效交付。如果您有技术需求,欢迎联系我,我将用我的经验与能力为您的项目助力。

工作经历

  • 2021-03-10 -至今河南知创网络技术有限公司技术主管

    我们是一家专注于创新软件解决方案的科技公司,致力于通过人工智能、大数据和云计算等技术,为企业提供智能化、高效化的产品与服务,涵盖智能客服、数据分析、自动化流程等领域,助力金融、医疗、零售等行业实现数字化转型。 作为AI技术总监,我全面负责公司AI技术战略规划与团队管理,主要职责包括: 制定AI技术发展方向,推动技术创新与产品化; 领导数据科学家、算法工程师等团队,提升技术能力; 主导核心AI算法研发,如自然语言处理、计算机视觉等; 协调跨部门资源,确保AI项目高效落地; 建立技术合作生态,探索前沿技术应用; 确保技术合规性与安全性,降低应用风险。 在我的带领下,团队成功开发了智能客服系统、预测性分析平台等产品,显著提升了客户效率。未来,我将继续推动技术突破,探索更多应用场景,助力公司在智能化时代保持领先地位。 我相信,AI技术的核心价值在于解决实际问题、创造社会价值。我将坚持以客户需求为导向,以技术创新为驱动,为客户与公司创造双赢未来。

教育经历

  • 2013-09-01 - 2017-09-01南阳理工学院计算机科学与技术本科

资质认证

技能

深度学习
图像处理
语音识别
自然语言处理
0
1
2
3
4
5
0
1
2
3
4
5
作品
AI项目-论文综述生成神器

1. 本方案面向谁,解决了什么问题 本方案主要面向以下几类用户: 科研人员:帮助科研人员快速生成论文综述,节省大量文献阅读和整理时间。 学生:辅助学生撰写学术论文,特别是文献综述部分,提高写作效率和质量。 学术机构:为学术机构提供自动化工具,提升论文撰写和评审的效率。 解决的问题: 文献处理效率低:传统文献阅读和整理耗时耗力,本方案通过自动化处理,显著提升效率。 综述撰写难度大:撰写高质量的论文综述需要深厚的学术功底,本方案通过智能生成,降低撰写难度。 引用关系复杂:手动管理文献引用关系容易出错,本方案自动建立和维护引用关系,确保准确性。 论文评估主观性强:传统论文评估依赖评审人员的主观判断,本方案引入评定角色,提供客观评估标准。 2. 相比于市场常规方案,本方案有哪些特点 市场常规方案: 文献管理工具:如EndNote、Zotero,主要用于文献的存储和引用管理,缺乏自动生成综述的功能。 文本生成工具:如Grammarly、Hemingway,主要用于文本的语法和风格检查,无法生成学术性强的综述。 学术搜索引擎:如Google Scholar、PubMed,主要用于文献检索,无法自动生成综述和引用关系。 本方案的特点: 自动化文献处理:自动精读文献,提取关键信息,生成综述大纲和初稿。 智能生成综述:基于深度学习模型,生成符合学术规范的论文综述,内容准确且逻辑清晰。 引用关系自动建立:自动识别文献之间的引用关系,生成规范的引用列表。 论文评定角色:引入AI评定角色,提供客观的论文评估,减少主观偏差。 多语言支持:支持多种语言的文献处理和综述生成,满足国际化需求。 用户定制化:用户可根据需求定制综述的风格、长度和重点,生成个性化的论文综述。 3. 方案的产品组成或技术选型 产品组成: 文献处理模块:负责文献的自动下载、解析和关键信息提取。 综述生成模块:基于提取的信息,生成综述大纲和初稿。 引用管理模块:自动建立和维护文献之间的引用关系,生成引用列表。 论文评定模块:引入AI评定角色,对生成的论文进行客观评估。 用户界面:提供友好的用户界面,方便用户操作和定制化设置。 技术选型: 自然语言处理(NLP):使用BERT、GPT等预训练模型,进行文献的精读和关键信息提取。 深度学习:采用Transformer架构,生成高质量的论文综述。 知识图谱:构建文献之间的引用关系,实现引用管理的自动化。 机器学习:训练AI评定角色,提供客观的论文评估。 云计算:基于云平台,提供高效的计算和存储资源,支持大规模文献处理。 通过以上技术选型,本方案能够高效、准确地生成论文综述,满足用户的多样化需求。

0
2024-12-26 17:08
AI项目-中医舌苔和面相分析系统

本方案面向谁,解决了什么问题 本方案主要面向对中医感兴趣的用户,尤其是希望通过简单、便捷的方式了解自身健康状况的人群。它解决了传统中医诊断中需要专业医师面对面诊断的痛点,通过AI技术实现了舌苔和面相的初步分析,帮助用户快速了解自身的身体状况,并提供相应的药方推荐,方便用户进行自我调理。 相比于市场常规方案,本方案有哪些特点 AI驱动的中医诊断:与市场上常见的健康类APP不同,本方案结合了AI技术与中医理论,能够通过舌苔和面相图片进行智能分析,提供个性化的健康诊断和药方推荐。 推理图解析:本方案的核心亮点在于推理图,用户可以清晰地看到从舌苔和面相信息到药方推荐的逻辑推理过程,增强了诊断的透明度和可信度。 便捷易用:用户只需上传舌苔和面部图片,即可获得初步诊断和药方推荐,操作简单,无需专业中医知识。 个性化推荐:基于用户的舌苔和面相分析结果,AI初诊器能够提供针对性的药方推荐,帮助用户进行精准调理。 方案的产品组成或技术选型 图像识别技术:用于分析用户上传的舌苔和面部图片,识别颜色、厚度、纹理等特征。 中医知识图谱:结合中医理论,构建症状与药方之间的关联关系,支持AI推理和推荐。 推理引擎:基于规则和机器学习算法,实现从舌苔和面相信息到身体状况判断和药方推荐的推理过程。 用户交互界面:提供友好的用户界面,方便用户上传图片、查看分析结果和药方推荐。

0
2024-12-26 16:29
AI项目-Chat-嬛嬛-角色扮演项目

### 项目介绍:Chat-甄嬛 #### 1. 本项目解决了什么问题 Chat-甄嬛 是一个基于《甄嬛传》剧本的个性化 AI 聊天机器人项目,旨在通过大模型微调技术,打造一个符合甄嬛角色人设的智能对话系统。它解决了以下问题: - **角色个性化对话**:通过微调大模型,Chat-甄嬛 能够模仿甄嬛的语气和风格,提供符合角色设定的对话体验,满足用户对个性化 AI 的需求。 - **剧本数据利用**:将《甄嬛传》剧本中的台词和对话转化为训练数据,充分利用现有文本资源,降低了数据收集和处理的成本。 - **开源与可扩展性**:项目开源,开发者可以基于此项目快速构建其他小说或剧本角色的个性化 AI,推动了 AI 技术在文学领域的应用。 #### 2. 本项目的技术选型,技术特点或性能表现 Chat-甄嬛 的技术选型和特点如下: - **技术选型**: - **大模型微调**:基于 LLaMA3_1-8B-Instruct 模型,使用 LoRA(Low-Rank Adaptation)技术进行微调,降低了训练成本,同时保持了模型的高性能。 - **数据处理工具**:使用正则表达式和自定义脚本从剧本中提取对话数据,并将其转换为适合模型训练的格式(如 JSON)。 - **训练框架**:采用 PyTorch 和 Hugging Face 的 Transformers 库,结合 Peft 库实现 LoRA 微调,简化了训练流程。 - **技术特点**: - **角色一致性**:通过微调,模型能够生成符合甄嬛角色设定的对话,语气、用词和情感表达高度一致。 - **多轮对话支持**:模型能够理解上下文,支持多轮对话,增强了交互的自然性和连贯性。 - **高效训练**:LoRA 技术显著减少了训练所需的计算资源,使得在消费级 GPU 上也能完成模型微调。 - **性能表现**: - **对话质量**:在测试中,Chat-甄嬛 生成的回复与甄嬛的角色设定高度契合,用户满意度较高。 - **训练效率**:在单卡 GPU 上,完成一次微调训练仅需 20-30 分钟,显著降低了时间和硬件成本。 #### 3. 如何快速上手本项目 要快速上手 Chat-甄嬛 项目,可以按照以下步骤进行: 1. **环境准备**: - 安装 Python 3.12 和 CUDA 12.1(如需 GPU 加速)。 - 安装 PyTorch 2.3.0 及其他依赖库: ```bash pip install modelscope==1.16.1 transformers==4.43.1 accelerate==0.32.1 peft==0.11.1 datasets==2.20.0 ``` 2. **克隆项目**: ```bash git clone https://github.com/KMnO4-zx/huanhuan-chat.git cd huanhuan-chat ``` 3. **数据准备**: - 将《甄嬛传》剧本数据转换为 JSON 格式,示例格式如下: ```json [ {"instruction": "小姐,别的秀女都在求中选,唯有咱们小姐想被撂牌子,菩萨一定记得真真儿的——", "input": "", "output": "嘘——都说许愿说破是不灵的。"} ] ``` - 将处理好的数据放置在 `dataset/train/lora/` 目录下。 4. **模型下载与微调**: - 下载 LLaMA3_1-8B-Instruct 模型: ```python import torch from modelscope import snapshot_download model_dir = snapshot_download('LLM-Research/Meta-Llama-3.1-8B-Instruct', cache_dir='/path/to/cache') ``` - 运行训练脚本: ```bash python train.py ``` 5. **模型测试**: - 使用训练好的模型进行对话测试: ```python from transformers import AutoModelForCausalLM, AutoTokenizer from peft import PeftModel model_path = './LLM-Research/Meta-Llama-3___1-8B-Instruct' lora_path = './output/llama3_1_instruct_lora/checkpoint-699' tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained(model_path, device_map="auto", torch_dtype=torch.bfloat16, trust_remote_code=True).eval() model = PeftModel.from_pretrained(model, model_id=lora_path) prompt = "嬛嬛你怎么了,朕替你打抱不平!" messages = [{"role": "system", "content": "假设你是皇帝身边的女人--甄嬛。"}, {"role": "user", "content": prompt}] input_ids = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True) model_inputs = tokenizer([input_ids], return_tensors="pt").to('cuda') generated_ids = model.generate(model_inputs.input_ids, max_new_tokens=512) response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0] print('皇上:', prompt) print('嬛嬛:', response) ``` 6. **定制与扩展**: - 如果需要微调其他角色,可以替换数据集并重新训练。 - 欢迎提交 Pull Request,参与项目的改进和扩展。 通过以上步骤,您可以快速上手 Chat-甄嬛 项目,并根据需要定制属于自己的个性化 AI 聊天机器人。

0
2024-12-26 16:05
更新于: 13小时前 浏览: 4