搜索资源列表
prep_identify
- 摘要:本文运用规则和统计相结合的方法构造了一个汉语介词短语识别算法。首先,根据介词和介词短 语右边界组成的搭配模板自动提取可信搭配关系,并用这些搭配关系对介词短语进行识别。之后,用基于词 性的三元边界统计模型和规则相结合的方法识别其它未处理的介词短语。通过对含有7323 个介词短语的语 料作交叉测试,精确率达到87148 % ,召回率达到87127 %。
FreeICTCLAS
- 中科院的分词动态连接库,不用我说了哈,在国内是大名顶顶哈-CAS-term dynamic link library, I do not have said Kazakhstan, in Kazakhstan after another is Daming
2006111
- 支持英文、数字、中文(简体)混合分词 常用的数量和人名的匹配 超过22万词的词库整理 实现正向最大匹配算法 智能数字,日期,人名识别。-support English, figures, Chinese (simplified) mixed at the number of commonly used words and the names of more than 220,000 matching word thesaurus fin
prep_identify
- 摘要:本文运用规则和统计相结合的方法构造了一个汉语介词短语识别算法。首先,根据介词和介词短 语右边界组成的搭配模板自动提取可信搭配关系,并用这些搭配关系对介词短语进行识别。之后,用基于词 性的三元边界统计模型和规则相结合的方法识别其它未处理的介词短语。通过对含有7323 个介词短语的语 料作交叉测试,精确率达到87148 % ,召回率达到87127 %。-Abstract: In this paper the use of
DatamininginChinesemedicalrecords
- 本研究中,我们研究了一种新的基于短语的特征提取算法。并把这种算法应用到中文真实病历的分类中,取得了较好的分类效果。-In this study,we employed a novel feature extract method--the phrase based feature extracting method.
HanLP-1.2.7
- HanLP是一个致力于向生产环境普及NLP技术的开源Java工具包,支持中文分词(N-最短路分词、CRF分词、索引分词、用户自定义词典、词性标注),命名实体识别(中国人名、音译人名、日本人名、地名、实体机构名识别),关键词提取,自动摘要,短语提取,拼音转换,简繁转换,文本推荐,依存句法分析(MaxEnt依存句法分析、神经网络依存句法分析)。-HanLP is a dedicated to popularize NLP technolog
Preprocessing-Java
- 自然语言处理,对于分词后的结果预处理,提取分词结果中的中心词和短语-Word and phrase extraction and segmentation results