搜索资源列表

  1. jieba-analysis-master

    0下载:
  2. 结巴分词,在Lucene中用来分词的,该分词器具有自动提取关键字的功能-Stuttered word, the word is used to Lucene, the word has the function of automatic extraction of keywords
  3. 所属分类:JSP源码/Java

    • 发布日期:2024-11-24
    • 文件大小:3.42mb
    • 提供者:刘金栓
  1. jieba-analysis-master

    0下载:
  2. 结巴分词(java版)只保留的原项目针对搜索引擎分词的功能(cut_for_index、cut_for_search),词性标注,关键词提取没有实现(今后如用到,可以考虑实现)。-Stammer participle (Java version) to retain only the original project for search engine participle (cut for index, cut for search)
  3. 所属分类:JSP源码/Java

    • 发布日期:2024-11-24
    • 文件大小:2.47mb
    • 提供者:cedar
  1. jieba

    0下载:
  2. python结巴分词模块.能对句子进行分词.(python module that make sentences into words)
  3. 所属分类:中文信息处理

    • 发布日期:2024-11-24
    • 文件大小:8.03mb
    • 提供者:OT
  1. zh_lstm

    0下载:
  2. lstm做情感分类,中文,用到豆瓣影评,结巴分词,lstm模型,环境python3做编码处理。(lstm for sentiment analyse)
  3. 所属分类:其他小程序

    • 发布日期:2024-11-24
    • 文件大小:2kb
    • 提供者:小神仙
  1. cppjieba-master

    0下载:
  2. 结巴分词,提供针对中文的分词方法,使用C++语言编写(jieba provides a word segmentation method for Chinese, which is written in the C++ language)
  3. 所属分类:图形/文字识别

    • 发布日期:2024-11-24
    • 文件大小:7.99mb
    • 提供者:千丈岩
  1. CPP

    0下载:
  2. 分词,结巴分词C++版本。自己学习用,或者可以加入自己的项目(participle,C++ version of participle.Learn to use, or join your own project)
  3. 所属分类:其他小程序

    • 发布日期:2024-11-24
    • 文件大小:8.01mb
    • 提供者:鲍欢欢
  1. jiebacut.py

    0下载:
  2. 通过结巴分词处理中文分词问题【对文本进行分词以及词频统计处理】。(The problem of Chinese participle is dealt with by the branch word segmentation.)
  3. 所属分类:中文信息处理

    • 发布日期:2024-11-24
    • 文件大小:757kb
    • 提供者:一万只耳朵
  1. jieba-jieba3k

    0下载:
  2. MATLAB 结巴分词的工具包,用于很多中文分词的模式识别代码程序,利用已有函数工具包提高工作效率,内有安装说明(MATLAB jieba toolkit, used for many Chinese word segmentation pattern recognition code programs, using existing function toolkits to improve work efficiency, with
  3. 所属分类:人工智能/神经网络/遗传算法

    • 发布日期:2024-11-24
    • 文件大小:9.72mb
    • 提供者:啦丿啦
  1. text_classification_AI100-master

    0下载:
  2. 实现LSTM情感分析,中文,用到结巴分词,LSTM模型,环境python3.0(Achieve LSTM sentiment analysis, Chinese, use stuttering participle, LSTM model, environment python3.0)
  3. 所属分类:人工智能/神经网络/遗传算法

    • 发布日期:2024-11-24
    • 文件大小:4.66mb
    • 提供者:而近乎于
  1. lda

    0下载:
  2. 建立文本主题模型,中文结巴分词,一致性分数计算(lda model ,jieba,co score)
  3. 所属分类:文档资料

    • 发布日期:2024-11-24
    • 文件大小:722kb
    • 提供者:bubl
  1. 垃圾短信分类

    0下载:
  2. 基于文本内容的垃圾短信识别,对数据进行了数据清洗,分词等,进行 了模型训练及评价(Based on the text content of spam short message recognition, data cleaning, segmentation, model training and evaluation are carried out)
  3. 所属分类:人工智能/神经网络/遗传算法

    • 发布日期:2024-11-24
    • 文件大小:22.54mb
    • 提供者:我爱学习-

源码中国 www.ymcn.org