NLP

NLP(自然语言处理)是人工智能的一个重要分支,致力于研究计算机与人类自然语言之间的交互,目标在于使机器能够​​理解、解释和生成人类语言​​。其核心任务涵盖基础技术如​​分词、词性标注、句法分析​​,到高级应用如​​机器翻译、情感分析、智能问答、文本摘要和语音识别​​。传统方法依赖统计机器学习与语言学规则,而现代NLP几乎完全由​​深度学习​​驱动:​​词嵌入​​(如Word2Vec)将词语映射为稠密向量,​​循环神经网络(RNN)​​、​​长短期记忆网络(LSTM)​​ 以及​​Transformer架构​​(如BERT、GPT系列)依靠注意力机制彻底改变了序列建模能力,使模型能够捕捉上下文语义的细微差别。预训练大语言模型(LLM)的出现,如ChatGPT,进一步推动NLP进入通用语言理解和生成的新阶段。NLP技术已广泛应用于搜索引擎、智能助理、机器翻译、内容推荐、舆情分析等领域,持续推动人机交互方式的变革,并成为当代AI技术落地最成功的方向之一。
模型介绍 孙思邈, 唐代医药学家、道士, 被后人尊称为"药王". 其十分重视民间的医疗经验, 不断积累走访, 及时记录下来, 写下著作《千金要方》. 唐朝建立后, 孙思邈接受朝廷的邀请, 与政府合作
910pytorchnlp
模型介绍 孙思邈, 唐代医药学家、道士, 被后人尊称为"药王". 其十分重视民间的医疗经验, 不断积累走访, 及时记录下来, 写下著作《千金要方》. 唐朝建立后, 孙思邈接受朝廷的邀请, 与政府合作
1250pytorchnlp
模型介绍 孙思邈, 唐代医药学家、道士, 被后人尊称为"药王". 其十分重视民间的医疗经验, 不断积累走访, 及时记录下来, 写下著作《千金要方》. 唐朝建立后, 孙思邈接受朝廷的邀请, 与政府合作
1380pytorchnlp
模型介绍 孙思邈, 唐代医药学家、道士, 被后人尊称为"药王". 其十分重视民间的医疗经验, 不断积累走访, 及时记录下来, 写下著作《千金要方》. 唐朝建立后, 孙思邈接受朝廷的邀请, 与政府合作
1000pytorchnlp
模型介绍 孙思邈, 唐代医药学家、道士, 被后人尊称为"药王". 其十分重视民间的医疗经验, 不断积累走访, 及时记录下来, 写下著作《千金要方》. 唐朝建立后, 孙思邈接受朝廷的邀请, 与政府合作
2840pytorchnlp
RedPajama-INCITE-7B-Chat RedPajama-INCITE-7B-Chat was developed by Together and leaders from the ope
980pytorchnlp
使用方法 from modelscope.utils.constant import Tasks from modelscope.pipelines import pipeline pipe = pi
1280pytorchnlp
扁鹊(BianQue): 通过混合指令和多轮医生问询数据集的微调, 提高医疗聊天模型的"问"能力 SoulChat   |   BianQue  | 基于主动健康的主动性、预防性、精确性、个性化、
1780pytorchnlp
A cutting-edge foundation for your very own LLM. ? TigerBot • ? Hugging Face Github https://g
800pytorchnlp
MOSS Table of Contents Open-source list Models Data Engineering Solutions Introduction Chat with MO
480pytorchnlp
GPT-3文本生成模型介绍 GPT-3模型是一个通用的预训练生成模型,使用Transformer的Decoder-only结构,可以用于解决下游各种类型的生成任务,特别是zero-shot生成能力。模
1020pytorchnlp
ChatGLM-6B-1.1 介绍 ChatGLM-6B 是一个开源的、支持中英双语问答的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模
990pytorchnlp
BiLLa: A Bilingual LLaMA with Enhanced Reasoning Ability BiLLa 是开源的推理能力增强的中英双语 LLaMA 模型. 模型的主要特性有:
1420pytorchnlp
GPT-3文本生成模型介绍 GPT-3模型是一个通用的预训练生成模型,使用Transformer的Decoder-only结构,可以用于解决下游各种类型的生成任务,特别是zero-shot生成能力。模
990pytorchnlp
MOSS Table of Contents Open-source list Models Data Engineering Solutions Introduction Chat with MO
1870pytorchnlp
git clone https://www.modelscope.cn/alv001/minigpt.git 须知 无需在量化模型,直接使用即可 无需在量化模型,直接使用即可 无需在量化模型,直接使
890pytorchnlp
GPT-3文本生成模型介绍 GPT-3模型是一个通用的预训练生成模型,使用Transformer的Decoder-only结构,可以用于解决下游各种类型的生成任务,特别是zero-shot生成能力。模
960pytorchnlp
git clone https://www.modelscope.cn/alv001/minigpt.git 须知 无需在量化模型,直接使用即可 无需在量化模型,直接使用即可 无需在量化模型,直接使
650pytorchnlp
MOSS 目录 开源清单 模型 数据 介绍 本地部署 开源协议 开源清单 模型 moss-moon-003-base: MOSS-003基座模型,在高质量中英文语料上自监督预训练得到
1890pytorchnlp
GPT3 SFT微调中文1.3B参数量文本生成模型 本模型在中文GPT-3 1.3B预训练模型的基础上,通过有监督的sft数据训练得到,具备更强的通用生成能力,对话能力等。目前模型可以支持单轮对话,多
1130pytorchnlp
当前共489个项目more
×
寻找源码
源码描述
联系方式
提交