搜索资源列表
Wordsegmentation2
- NLP技术实现,对语料库进行自动统计生成分词词典,对训练集进行分词,列出所有的分词可能并计算每种可能的概率。请使用者自行加入语料库和测试集。-NLP technology to automatically Corpus Health Statistics ingredients dictionary, the training set for segmentation, list all the sub-term may calcula
Wordsegmentation2
- NLP技术实现,对语料库进行自动统计生成分词词典,对训练集进行分词,列出所有的分词可能并计算每种可能的概率。请使用者自行加入语料库和测试集。-NLP technology to automatically Corpus Health Statistics ingredients dictionary, the training set for segmentation, list all the sub-term may calcula
22
- 自动分词与词性标注评测有助于学习NLP,并且理解其更深的含义-A good Instruction of PoS
windows_JNI_32
- 这是中科院的分词软件,内容很全,有使用说明,及相应的demo,用于中文NLP领域的预处理,非常好!-This is the Chinese Academy of Sciences of the segmentation software, content is very wide, there are instructions for use, and the corresponding demo, pre-processing for
nlp
- 自然语言分词,内带有词典以及需要分词的内容-natural language divide
nlp
- 中文分词程序。NLP课程的程序设计,实现中文分词-Chinese word segmentation program. NLP course program designed to achieve the Chinese word segmentation
nlp-lang-0.2
- 这是分词工具ANSJ2.0以后版本需要的JAR包。-This is the ANSJ code after the 2 segmentation tool.
HanLP-1.2.7
- HanLP是一个致力于向生产环境普及NLP技术的开源Java工具包,支持中文分词(N-最短路分词、CRF分词、索引分词、用户自定义词典、词性标注),命名实体识别(中国人名、音译人名、日本人名、地名、实体机构名识别),关键词提取,自动摘要,短语提取,拼音转换,简繁转换,文本推荐,依存句法分析(MaxEnt依存句法分析、神经网络依存句法分析)。-HanLP is a dedicated to popularize NLP technolog
New-folder
- 自然语言处理中的隐尔可夫马中文分词方法,利用java实现-NLP, using HMM to automatic word segmentation
NLP-speech-tagging
- 基于隐马尔可夫模型的中文分词、词性标注、命名实体识别-Based on Chinese word hidden Markov model, speech tagging, named entity recognition
project1
- 使用斯坦福NLP进行分词,并得到语法树和依赖语句(Use the Stanford NLP for word segmentation and get the syntax tree and dependency statements)
jieba_plus
- 解决jieba分词中部分bug,包括全角字母和数字等,更新中(solve part of the bugs in Jieba segmentation, update)
自然语言处理NPL-最大概率分词算法
- 自然语言处理NLP,最大概率分词算法,带有详细说明文档(Natural Language Processing NLP, maximum probability segmentation algorithm)
ngram模型分词与统计算法
- N-Gram(有时也称为N元模型)是自然语言处理中一个非常重要的概念,通常在NLP中,人们基于一定的语料库,可以利用N-Gram来预计或者评估一个句子是否合理。另外一方面,N-Gram的另外一个作用是用来评估两个字符串之间的差异程度。这是模糊匹配中常用的一种手段。本文将从此开始,进而向读者展示N-Gram在自然语言处理中的各种powerful的应用。(N-Gram (sometimes referred to as N metamode
文本分类_监管处罚Rcode
- NLP分词,本代码可以用于切割中文关键词,实现信息归类(NLP participle, this code can be used to cut Chinese key words, the realization of information classification)
jiebacut.py
- 通过结巴分词处理中文分词问题【对文本进行分词以及词频统计处理】。(The problem of Chinese participle is dealt with by the branch word segmentation.)
chinese_seg_update
- 中文分词,采用逆向最大匹配方法实现,利用字典作为索引(The Chinese word segmentation is realized by the reverse maximum matching method, and the dictionary is used as the index.)
新建文本文档
- 对文本逐行切分,并逐行保存入本地TXT文件中。(Line by line segmentation)
Python逆向最大匹配实现-代码-文档-截图等
- 对于文本进行自然语言处理,中文分词。北邮计算机院NLP课的作业。(This is a homework for BUPT student, implementing the word segment of natural language processing.)
icwb2-data
- 中文分词数据,含有as、 cityu、msr、pku数据,包括测试集、训练集(Chinese word segmentation data)