NLP

NLP(自然语言处理)是人工智能的一个重要分支,致力于研究计算机与人类自然语言之间的交互,目标在于使机器能够​​理解、解释和生成人类语言​​。其核心任务涵盖基础技术如​​分词、词性标注、句法分析​​,到高级应用如​​机器翻译、情感分析、智能问答、文本摘要和语音识别​​。传统方法依赖统计机器学习与语言学规则,而现代NLP几乎完全由​​深度学习​​驱动:​​词嵌入​​(如Word2Vec)将词语映射为稠密向量,​​循环神经网络(RNN)​​、​​长短期记忆网络(LSTM)​​ 以及​​Transformer架构​​(如BERT、GPT系列)依靠注意力机制彻底改变了序列建模能力,使模型能够捕捉上下文语义的细微差别。预训练大语言模型(LLM)的出现,如ChatGPT,进一步推动NLP进入通用语言理解和生成的新阶段。NLP技术已广泛应用于搜索引擎、智能助理、机器翻译、内容推荐、舆情分析等领域,持续推动人机交互方式的变革,并成为当代AI技术落地最成功的方向之一。
GTE中文通用文本表示模型(small) 文本表示是自然语言处理(NLP)领域的核心问题, 其在很多NLP、信息检索的下游任务中发挥着非常重要的作用。近几年, 随着深度学习的发展,尤其是预训练语言模型
820pytorchnlp
Udever 多语言通用文本表示模型 文本表示是将一个输入句子使用机器学习模型转换为一个固定维度的连续向量: 输入: 吃完海鲜可以喝牛奶吗? 输出: [0.27162,-0.66159,0.3303
810Pytorchnlp
Udever 多语言通用文本表示模型 文本表示是将一个输入句子使用机器学习模型转换为一个固定维度的连续向量: 输入: 吃完海鲜可以喝牛奶吗? 输出: [0.27162,-0.66159,0.3303
1320Pytorchnlp
sql_codellama 介绍 SQL-Codellama是一个用于text2SQL的模型。 模型底座 它是基于codellama模型构建的,该模型通过使用qlora进行训练。 训练数据 训练数据包
1040pytorchnlp
GTE中文通用文本表示模型 文本表示是自然语言处理(NLP)领域的核心问题, 其在很多NLP、信息检索的下游任务中发挥着非常重要的作用。近几年, 随着深度学习的发展,尤其是预训练语言模型的出现极大的推
7770pytorchnlp
Udever 多语言通用文本表示模型 文本表示是将一个输入句子使用机器学习模型转换为一个固定维度的连续向量: 输入: 吃完海鲜可以喝牛奶吗? 输出: [0.27162,-0.66159,0.3303
850Pytorchnlp
Udever 多语言通用文本表示模型 文本表示是将一个输入句子使用机器学习模型转换为一个固定维度的连续向量: 输入: 吃完海鲜可以喝牛奶吗? 输出: [0.27162,-0.66159,0.3303
970Pytorchnlp
TransNormerLLM -- A Faster and Better LLM ? GitHub • ? Hugging Face • ? Discord • ? 微信 [![
890nlp
TransNormerLLM -- A Faster and Better LLM ? GitHub • ? Hugging Face • ? Discord • ? 微信 [![
830nlp
Ziya2-13B-Chat Main Page:Fengshenbang Github: Fengshenbang-LM 姜子牙系列模型 Ziya-LLaMA-13B-v1.1 Ziya-LL
2850Pytorchnlp
From Clozing to Comprehending: Retrofitting Pre-trained Masked Language Model to Pre-trained Machine
760Pytorchnlp
From Clozing to Comprehending: Retrofitting Pre-trained Masked Language Model to Pre-trained Machine
680Pytorchnlp
EQA-PMR-large EQA-PMR-large is initialized with PMR-large and further fine-tuned on 6 Extractive Que
1030Pytorchnlp
NER-PMR-large NER-PMR-large is initialized with PMR-large and further fine-tuned with 4 NER training
790Pytorchnlp
PALM文本生成模型介绍 PALM模型是一个通用的预训练生成模型,可以用于解决下游各种类型的生成任务。模型利用大量无监督数据,通过结合自编码和自回归任务进行预训练。可以用于解决文本生成相关的任务包含:
1140pytorchnlp
该模型为使用ModelScope Trainer 微调的模型 基础模型:GPT-3预训练生成模型-中文-base 任务类型:continuation 任务名称:wangpengbo 评估结果
820pytorchnlp
GPT-3文本生成模型介绍(文档更新中) GPT-3模型是一个通用的预训练生成模型,使用Transformer的Decoder-only结构,可以用于解决下游各种类型的生成任务,特别是zero-sho
1100pytorchnlp
该模型为使用ModelScope Trainer 微调的模型 基础模型:GPT-3预训练生成模型-中文-base 任务类型:continuation 任务名称:ask_fo 评估结果 rev
650pytorchnlp
PolyLM-Qwen-7B-多语言预训练模型 模型简介 PolyLM是一个通晓多种语言的大规模语言模型,涵盖中文、英文、西班牙语、法语、德语、俄语、葡萄牙语、意大利语、阿拉伯语、日语、韩语、泰语、越
2190Pytorchnlp
PolyLM多语言-智能服务-文本生成模型 模型简介 PolyLM是一个通晓多种语言的大规模语言模型,涵盖中文、英文、西班牙语、法语、德语、俄语、葡萄牙语、意大利语、阿拉伯语、日语、韩语、泰语、越南语
720Pytorchnlp
当前共502个项目more
×
寻找源码
源码描述
联系方式
提交