博客专栏  >  综合   >  剑指汉语自然语言处理

剑指汉语自然语言处理

深度学习方兴未艾,冲击着各个领域,自然语言处理技术也在大潮中开始了再一次的扬帆起航. 又一个大航海时代到了,走,出海去.

关注
3 已关注
14篇博文
  • NLTK 词频统计(一) 词频统计,绘图,词性标注

    内容简介 代码一,笔记简略版本 代码二,词频统计与pandas集合,分词词性提取与词频统计结合 代码一import FontCN_NLPtools as fts引用的是我自己写的一个类,是对我常用的一...

    2017-07-29 21:27
    1050
  • 封装汉语自然语言处理中的常用方法(附代码:生成中文词云)

    前叙该文章写作共花费二十分钟,阅读只需要七分钟左右,读完该文章后,你将学会使用少量代码,将中文小说,中文新闻,或者其他任意一段中文文本生成词云图背景在进行汉语自然语言处理时候,经常使用的几个方法,分词...

    2017-07-28 23:40
    2306
  • 使用NLPIR 进行中文分词并标注词性

    背景在许多时候为了更好的解析文本,我们不仅仅需要将文本分词,去停这么简单,除了获取关键词与新词汇以外,我们还需要对获取每个粒度的其他信息,比如词性标注,在python中NLPIR就可以很好的完成这个任...

    2017-07-29 00:24
    4730
  • Python词云 wordcloud 十五分钟入门与进阶

    整体简介基于Python的词云生成类库,很好用,而且功能强大.博主个人比较推荐 github:https://github.com/amueller/word_cloud 官方地址:https:/...

    2017-05-26 23:39
    26945
  • 基于贝叶斯的垃圾邮件过滤器 JAVA

    package cn.zhf.test; import java.io.*; import java.util.*; public class SpamMailDetection { ...

    2017-07-01 22:53
    1308
  • Python 中文分词 NLPIR 快速搭建

    前述本篇文章写完需要半个小时,阅读需要十分钟,读完后,你将学会在Python中使用NLPIR,以及关于使用它的一些有用的基础知识 NLPIR 是中科院的汉语分词系统,在Python中使用也比较广泛,...

    2017-06-05 23:03
    1329
  • 中科院分词系统(NLPIR)JAVA简易教程

    这篇文档内容主要从官方文档中获取而来,对API进行了翻译,并依据个人使用经验进行了一些补充,鉴于能力有限、水平较低,文档中肯定存在有很多不足之处,还请见谅。 下载地址:http://ictcla...

    2017-06-06 15:51
    1408
  • Python NLPIR2016 与 wordcloud 结合生成中文词云

    前叙该博文继承之前的文章,进一步介绍NLPIR2016的使用,三个内容(利用NLPIR 的发现新词功能自动提取文本内的新词汇,解决worldcloud中英文混合只显示中文的问题,NLPIR与world...

    2017-06-10 15:06
    1119
  • Python NLPIR(中科院汉语分词系统)的使用 十五分钟快速入门与完全掌握

    前叙博主写这篇文章使用了八十分钟,阅读需要十五分钟,读完之后你将会学会在Python中使用NLPIR2016.如果你花费更多的时间练习后半部分的例子,你将能够在一天内学会在Python中使用NLPIR...

    2017-06-06 17:16
    5037
  • Python 任意中文文本生成词云 最终版本

    前叙利用下面的代码你将可以将任意中文文本生成词云,其分词部分由jieba,NLPIR2016两个部分组成,生成词语由worldcloud负责,默认会自动发现文本中的20个新词并添加到词库中,当然你也可...

    2017-06-10 15:20
    1325
  • 利用 TensorFlow 实现上下文的 Chat-bots

    在我们的日常聊天中,情景才是最重要的。我们将使用 TensorFlow 构建一个聊天机器人框架,并且添加一些上下文处理机制来使得机器人更加智能。 “Whole World in your...

    2017-07-02 23:34
    1490
  • 汉语自然语言处理工具包下载

    Python Windows10 汉语自然语言处理基本组件: 20170703

    2017-07-03 15:22
    1176
  • Python + worldcloud + jieba 十分钟学会用任意中文文本生成词云

    前述本文需要的两个Python类库 jieba:中文分词分词工具 wordcloud:Python下的词云生成工具写作本篇文章用时一个小时半,阅读需要十分钟,读完该文章后你将学会如何将任意中文文本...

    2017-05-27 17:00
    5125
  • Python中文分词 jieba 十五分钟入门与进阶

    整体介绍jieba 基于Python的中文分词工具,安装使用非常方便,直接pip即可,2/3都可以,功能强悍,博主十分推荐 github:https://github.com/fxsjy/jieba...

    2017-05-27 16:21
    3126

img博客搬家
img撰写博客
img专家申请
img意见反馈
img返回顶部