NLP

NLP(自然语言处理)是人工智能的一个重要分支,致力于研究计算机与人类自然语言之间的交互,目标在于使机器能够​​理解、解释和生成人类语言​​。其核心任务涵盖基础技术如​​分词、词性标注、句法分析​​,到高级应用如​​机器翻译、情感分析、智能问答、文本摘要和语音识别​​。传统方法依赖统计机器学习与语言学规则,而现代NLP几乎完全由​​深度学习​​驱动:​​词嵌入​​(如Word2Vec)将词语映射为稠密向量,​​循环神经网络(RNN)​​、​​长短期记忆网络(LSTM)​​ 以及​​Transformer架构​​(如BERT、GPT系列)依靠注意力机制彻底改变了序列建模能力,使模型能够捕捉上下文语义的细微差别。预训练大语言模型(LLM)的出现,如ChatGPT,进一步推动NLP进入通用语言理解和生成的新阶段。NLP技术已广泛应用于搜索引擎、智能助理、机器翻译、内容推荐、舆情分析等领域,持续推动人机交互方式的变革,并成为当代AI技术落地最成功的方向之一。
EQA-PMR-large EQA-PMR-large is initialized with PMR-large and further fine-tuned on 6 Extractive Que
920Pytorchnlp
NER-PMR-large NER-PMR-large is initialized with PMR-large and further fine-tuned with 4 NER training
710Pytorchnlp
PALM文本生成模型介绍 PALM模型是一个通用的预训练生成模型,可以用于解决下游各种类型的生成任务。模型利用大量无监督数据,通过结合自编码和自回归任务进行预训练。可以用于解决文本生成相关的任务包含:
940pytorchnlp
该模型为使用ModelScope Trainer 微调的模型 基础模型:GPT-3预训练生成模型-中文-base 任务类型:continuation 任务名称:wangpengbo 评估结果
770pytorchnlp
GPT-3文本生成模型介绍(文档更新中) GPT-3模型是一个通用的预训练生成模型,使用Transformer的Decoder-only结构,可以用于解决下游各种类型的生成任务,特别是zero-sho
880pytorchnlp
该模型为使用ModelScope Trainer 微调的模型 基础模型:GPT-3预训练生成模型-中文-base 任务类型:continuation 任务名称:ask_fo 评估结果 rev
550pytorchnlp
PolyLM-Qwen-7B-多语言预训练模型 模型简介 PolyLM是一个通晓多种语言的大规模语言模型,涵盖中文、英文、西班牙语、法语、德语、俄语、葡萄牙语、意大利语、阿拉伯语、日语、韩语、泰语、越
2040Pytorchnlp
PolyLM多语言-智能服务-文本生成模型 模型简介 PolyLM是一个通晓多种语言的大规模语言模型,涵盖中文、英文、西班牙语、法语、德语、俄语、葡萄牙语、意大利语、阿拉伯语、日语、韩语、泰语、越南语
570Pytorchnlp
Pangu-Evolution 2.6B 鹏程·盘古系列模型整体介绍 基于盘古系列大模型提供大模型应用落地技术帮助用户高效的落地超大预训练模型到实际场景。 pcl_pangu项目的目标是将鹏城·盘古开
1630Pytorchnlp
PALM文本生成模型介绍 PALM模型是一个通用的预训练生成模型,可以用于解决下游各种类型的生成任务。模型利用大量无监督数据,通过结合自编码和自回归任务进行预训练。可以用于解决文本生成相关的任务包含:
640pytorchnlp
PALM文本生成模型介绍 PALM模型是一个通用的预训练生成模型,可以用于解决下游各种类型的生成任务。模型利用大量无监督数据,通过结合自编码和自回归任务进行预训练。可以用于解决文本生成相关的任务包含:
890pytorchnlp
GPT3中文2.7B参数量文本生成模型 GPT-3模型是一个通用的预训练生成模型,使用Transformer的Decoder-only结构,可以用于解决下游各种类型的生成任务,特别是zero-shot
650pytorchnlp
GPT-3文本生成模型介绍 GPT-3模型是一个通用的预训练生成模型,使用Transformer的Decoder-only结构,可以用于解决下游各种类型的生成任务,特别是zero-shot生成能力。模
940pytorchnlp
PolyLM多语言文本生成模型(Demo-演示) 模型简介 PolyLM是一个通晓多种语言的大规模语言模型,涵盖中文、英文、西班牙语、法语、德语、俄语、葡萄牙语、意大利语、阿拉伯语、日语、韩语、泰语、
800Pytorchnlp
PolyLM多语言文本生成模型(PolyLM-文本生成模型-多语言-13B-演示) 模型简介 PolyLM是一个通晓多种语言的大规模语言模型,涵盖中文、英文、西班牙语、法语、德语、俄语、葡萄牙语、意大
770Pytorchnlp
PALM文本生成模型介绍 PALM模型是一个通用的预训练生成模型,可以用于解决下游各种类型的生成任务。模型利用大量无监督数据,通过结合自编码和自回归任务进行预训练。可以用于解决文本生成相关的任务包含:
520pytorchnlp
PALM文本生成模型介绍 PALM模型是一个通用的预训练生成模型,可以用于解决下游各种类型的生成任务。模型利用大量无监督数据,通过结合自编码和自回归任务进行预训练。可以用于解决文本生成相关的任务包含:
850pytorchnlp
Report See our in writing report here
570pytorchnlp
该模型为使用ModelScope Trainer 微调的模型 基础模型:RaNER命名实体识别-中文-新闻领域-base 任务类型:named-entity-recognition 任务名称:ner
530pytorchnlp
Chinese Alpaca Plus 13B Model 发布中文LLaMA-Plus, Alpaca-Plus 13B版本模型 发布中文LLaMA-Plus, Alpaca-Plus 13B版本,
900pytorchnlp
当前共490个项目more
×
寻找源码
源码描述
联系方式
提交