• 我的消息
  • 我的博客
  • 我的学院
  • 我的下载
  • 我的收藏
  • 消息
  • 搜索条件:
    点击返回全部
    全部文章 > {categoryName }
    • NLTK 词频统计(一) 词频统计,绘图,词性标注

      内容简介 代码一,笔记简略版本 代码二,词频统计与pandas集合,分词词性提取与词频统计结合 代码一import FontCN_NLPtools as fts引用的是我自己写的一个类,是对我常用的一...

      原创
      2017-07-29 21:27:51
      1846
      0
    • 使用NLPIR 进行中文分词并标注词性

      背景在许多时候为了更好的解析文本,我们不仅仅需要将文本分词,去停这么简单,除了获取关键词与新词汇以外,我们还需要对获取每个粒度的其他信息,比如词性标注,在python中NLPIR就可以很好的完成这个任...

      原创
      2017-07-29 00:24:25
      5185
      0
    • 封装汉语自然语言处理中的常用方法(附代码:生成中文词云)

      前叙该文章写作共花费二十分钟,阅读只需要七分钟左右,读完该文章后,你将学会使用少量代码,将中文小说,中文新闻,或者其他任意一段中文文本生成词云图背景在进行汉语自然语言处理时候,经常使用的几个方法,分词...

      原创
      2017-07-28 23:40:04
      2556
      0
    • 汉语自然语言处理工具包下载

      Python Windows10 汉语自然语言处理基本组件: 20170703

      原创
      2017-07-03 15:22:47
      1303
      0
    • 多版本中文停用词词表 + 多版本英文停用词词表 + python词表合并程序

      文章简介如果你只想获取中文停用词此表,请直接到文章结尾下载项目文件,本博文及链接会定期更新:最近更新2017/07/04第二次更新

      原创
      2017-07-03 15:13:15
      9111
      2
    • 利用 TensorFlow 实现上下文的 Chat-bots

      在我们的日常聊天中,情景才是最重要的。我们将使用 TensorFlow 构建一个聊天机器人框架,并且添加一些上下文处理机制来使得机器人更加智能。 “Whole World in your...

      转载
      2017-07-02 23:34:42
      1814
      0
    • Python 任意中文文本生成词云 最终版本

      前叙利用下面的代码你将可以将任意中文文本生成词云,其分词部分由jieba,NLPIR2016两个部分组成,生成词语由worldcloud负责,默认会自动发现文本中的20个新词并添加到词库中,当然你也可...

      原创
      2017-06-10 15:20:49
      1766
      0
    • Python NLPIR2016 与 wordcloud 结合生成中文词云

      前叙该博文继承之前的文章,进一步介绍NLPIR2016的使用,三个内容(利用NLPIR 的发现新词功能自动提取文本内的新词汇,解决worldcloud中英文混合只显示中文的问题,NLPIR与world...

      原创
      2017-06-10 15:06:28
      1350
      0
    • Python NLPIR(中科院汉语分词系统)的使用 十五分钟快速入门与完全掌握

      前叙博主写这篇文章使用了八十分钟,阅读需要十五分钟,读完之后你将会学会在Python中使用NLPIR2016.如果你花费更多的时间练习后半部分的例子,你将能够在一天内学会在Python中使用NLPIR...

      原创
      2017-06-06 17:16:12
      5620
      4
    • 源码:我的关于NLP的博客(持续更新中...)

      决定上传我平时写的部分源码,不过暂时只打算上传有关NLP的部分,之后随着博客的不断更新,我也会不断更新这篇博客,你可以将这片博客放在你的收藏夹里,这样方便你的浏览 1.关于NLPIR的部分 20160...

      原创
      2017-06-06 17:13:55
      1673
      2
  • 学院
  • 下载
  • 消息