成功部署与优化超大参数模型: 在大型算力服务器集群上成功联动部署并优化了V3、R1
671B DeepSeek 满血版等超大参数模型,使用 Ollama、SGLang、KTransformer、Unsloth
等推理框架进行部署对比,提升了模型的推理性能和应用效率。
高效管理多GPU服务器集群: 使用 NCCL 技术完成多GPU服务器联动部署,解决了多机多卡之间的通信与负载均衡问题,成功实现了大规模分布式训练和推理
完成大模型微调: 利用 Ollama-Factory 对 14B 以上大模型进行 Full、Freeze、LoRA 微调,优化了模型精度和运行效率,提升了业务需求的适应性。
搭建前沿AI工作流解决方案: 完成 SD、Flux、Wan2.1 等图文生成、图生图、图生视频应用的部署,并成功搭建 Dify、Coze、ComfyUI 等 AI 工作流解决方案,成功实现大模型在商业应用中的实际落地。
开发大模型代理: 制作多个大模型代理,通过调用大模型工具为具体业务场景提供定制化解决方案,成功实现了商业化应用的落地,在开放API平台上参与Python后端路由开发工作