搜索资源列表
WordSeg
- 这是一个中文分词程序。用户将中文文件(.txt)打开,点分词后可看到分词结果。开源。-This is a Chinese word segmentation process. Users will be Chinese documents (. Txt) open, point after the word segmentation results can be seen. Open source.
SentenceSplitter
- .NET写的中文分词组件, 适用于小型搜索引擎中文分词。-. NET to write the Chinese word segmentation components, applicable to small search engine in Chinese word segmentation.
fc_src
- 中文分词?形姆执手 形姆执蔶ava版-Chinese word segmentation? Shaped el al bailiff bailiff hand蔶version ava
MMSeg
- 分词算法描述,用于中文分词,供大家参考,互相学习-Segmentation algorithm described for the Chinese word segmentation, for your information, learn from each other
nicewords_2.0.0128_for_3790_4659.tar.dezend_cc_php
- Nicewords-Dzend版 Nicewords是由工作在顶级门户网站的几名资深高级工程师利用爬虫技术(蜘蛛机器人,spider)、分词技术和网页萃取技术,结合白帽SEO(规避了一切风险的搜索引擎优化),利用URL重写技术、缓存技术,使用PHP语言开发的一套能根据设置的关键词自动抓取互联网上的相关信息、自动更新的WEB智能建站系统。利用NiceWords智能建站系统,只需要在配置页面上设置几个关键词,NiceWords就能全自动
ktdictseg_v1.0.01
- 一个关于分词源码,分词效率较高。算法简单实用。
sharpictclas
- sharpictclas分词系统_1.0,一个用CSHARP编写的分词系统-sharpictclas Word Segmentation System _1.0, one prepared by CSharp Word Segmentation System
src_seg(java)
- 一个用java语言编写的中文文本分词算法-A use of java language Chinese text word segmentation algorithm
k50RVZDojs03
- 基于IKAnalyzer分词算法的准商业化Lucene中文分词器-IKAnalyzer segmentation algorithm based on quasi-commercial Lucene Chinese Word Breaker
HLSSplit
- 重新写的海量分词研究版的JNI程序,对以前的不能使用import的问题进行修改,没有使用时间限制,做了几个方便用的接口。-Massive re-write sub-word version of the JNI study procedures, should not use the previous issues of import to amend, without the use of time constraints, to d
ck
- 这是分词系统的词库,希望能对做分词的朋友有所帮助。
TextClassification_wbfl_sn
- 整个实验是在Windows环境下使用delphi完成的。选取了600篇文档,数据集共分教育,商业与经济,计算机与因特网,娱乐与休闲,自然科学5个类别, 教育类包括31篇文档, 商业与经济类有93篇文档, 计算机与因特网102篇文档, 娱乐与休闲166篇文档, 自然科学有208篇文档。 目录“DataSet”:RawText中的文本分词后保存在DataSet目录。 数据表“WordsTable”:保
ACWPS_55824
- 中文分词系统,有兴趣的,可以下载,研究下,-Chinese word segmentation systems, are interested, you can download, study,
fenci
- java版的分词程序,可以灵活生成添加字典。-java version of the segmentation procedure, you can add flexibility to generate the dictionary.
lucene+mysql+eclipe
- lucene+mysql+eclipe开发实例,实现了分页和中文分词。欢迎交流qq:276367673-lucene+ mysql+ eclipe development examples realize the page and Chinese word segmentation. Welcome the exchange of qq: 276367673
ictclas4j_0[1].9.1
- 基于java语言的分词系统,可以标注词性、词频等信息,可用于二次开发-Based on the java language word segmentation system that can mark parts of speech, word frequency and other information, can be used for secondary development
IKAnalyzer
- IKAnalyzer是中文分词工具,基于lucene2.0版本API开发,实现了以词典分词为基础的正反向全切分算法,是Lucene Analyzer接口的实现,这个是.Net版本,含有源代码-IKAnalyzer is the Chinese word segmentation tool lucene2.0 version of API-based development, the realization of a dictionary
lunce-IKAnalyzer
- 中文分词工具,利用lucence的接口写的,进行最长匹配,正向和反向匹配后根据词数选择。别人写的,我用了,觉得不错,简单,上手快-Chinese word segmentation tool lucence interface written for the longest match, the forward and reverse to match the number under the word choice. Someone
fenci_ICTCLAS
- 基于中科院计算所的ICTCLAS系统开发的分词工具,只有一个类,上手最快,功能强大-Based on calculations of the Chinese Academy of Sciences ICTCLAS segmentation system development tools, there is only one category, the fastest to use and powerful
baidu
- 中文信息处理的分词词库,百度分词词库,用于中文信息处理的词库分析和源程序链接-Chinese information processing sub-word thesaurus, Baidu word thesaurus for the thesaurus in Chinese information processing analysis and source link