中文分词库

IK中文分词器在Elasticsearch上的使用。原生IK中文分词是从文件系统中读取词典,es-ik本身可扩展成从不同的源读取词典。目前提供从sqlite3数据库中读取。es-ik-plugi...
420Java中文分词库
python-nlpir是NLPIR的一个python封装。NLPIR是目前运用最为广泛的中文分词工具。目前该软件支持Windows和Linux。
430Python中文分词库
2011-06-26更新至2.0版 1.增加规则 2.增加词性分词 3.JSON格式返回数据 http-scws(基于scws的http协议中文分词),软件基于scws 1.1.7版本二次开发,...
340C/C++中文分词库
东北大学自然语言处理实验室 自从1980年创立以来一直从事语言分析和机器翻译技术研究工作,基于三十多年的雄厚研究积累,研制了一套中文句法语义分析系统NiuParser。 NiuParser系统能...
410C/C++中文分词库
scseg中文分词,是基于mmseg的简单分词组件 Feature 支持pinyin分词 支持用户自定义词典 支持单位合并 支持汉字数字识别 Install pip install scseg ...
360Python中文分词库
首先感谢jieba分词原作者fxsjy,没有他的无私贡献,我们也不会结识到结巴 分词,更不会有现在的java版本。 结巴分词的原始版本为python编写,目前该项目在github上的关注量为17...
430Java中文分词库
jieba.NET 是 jieba 中文分词的 .NET 版本(C#实现)。当前版本为 0.37.1,基于 jieba 0.37,目标是提供与 jieba 一致的功能与接口,但以后可能会在 ji...
440.NET中文分词库
"哑哈"中文分词,更快或更准确,由你来定义。通过简单定制,让分词模块更适用于你的需求。 "Yaha" You can custom your Chinese Word Segmentation ...
330Python中文分词库
rmmseg是浙江大学的学生pluskid开发的纯ruby版本的中文分词程序,采用的也是“基于词典的最大匹配算法” $ echo "我们都喜欢用 Ruby" | rmmseg 我们 都 喜欢 用...
510Ruby中文分词库
word分词是一个Java实现的分布式的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未...
430Java中文分词库
CWSharp 是 .Net 的中文分词组件,支持中英文或者混合词组,提供自定义词典功能,支持Lucene.Net。 特性 支持多种分词器 StandardTokenizer BigramTok...
510C#中文分词库
cwsharp-go cwsharp-go是golang的文本分词包,支持中文、英文以及中英混合词组,除此之外,提供自定义分词的扩展(比如日文、韩文或其它语种)。 .NET版:CWSharp-C...
480中文分词库
该软件是基于IK analyzer中文分词系统,以及基于知网的词语相似度计算一文,开发的能够将普通话转换为方言的分词翻译系统。软件采用基于词库的中文方言分词,对普通话的句子进行最大分词,从而进行...
350Java中文分词库
中文分词器分词效果评估对比 使用说明: 如何建立开发环境? 如果是使用Netbeans、IDEA,则直接打开项目 如果是使用Eclipse、MyEclipse,则要执行导入操作 推荐使用IDEA...
400Java中文分词库
Ansj 中文分词开源项目
Ansj中文分词 这是一个ictclas的java实现.基本上重写了所有的数据结构和算法.词典是用的开源版的ictclas所提供的.并且进行了部分的人工优化 内存中中文分词每秒钟大约100万字(...
350Java中文分词库
"结巴"中文分词的R语言版本,支持最大概率法(Maximum Probability),隐式马尔科夫模型(Hidden Markov Model),索引模型(QuerySegment),混合模型...
400C/C++中文分词库
GoJieba 是 Jieba 分词 (结巴中文分词)的 Golang 语言版本分词库。 简介 支持多种分词方式,包括: 最大概率模式, HMM新词发现模式, 搜索引擎模式, 全模式 核心算法底...
760中文分词库
该项目已经被合并到了项目:http://www.oschina.net/p/friso robbe是建立在friso中文分词组建上的一个高性能php中文分词扩展,同时支持对UTF-8/GBK编码...
300PHP中文分词库
Genius Genius是一个开源的python中文分词组件,采用 CRF(Conditional Random Field)条件随机场算法。 Feature 支持python2.x、pyth...
310Python中文分词库
rmmseg的主要问题是性能和内存消耗。用纯ruby编写的rmmseg分词的速度非常慢,而且内存消耗非常惊人,当使用复杂分词算法的时候,内存呈线性上升的现象。为此rmmseg的作者pluskid...
350C/C++中文分词库
当前共66个项目
×
寻找源码
源码描述
联系方式
提交