[读书笔记] 《中文自然语言处理》

摘要

学习中文NLP,记录学习历程,顺便弄个WIKI
持续更新中。。。。


Chapter 1

中文分词

中科院计算所NLPIR http://ictclas.nlpir.org/nlpir/
ansj分词器 https://github.com/NLPchina/ansj_seg
哈工大的LTP https://github.com/HIT-SCIR/ltp
清华大学THULAC https://github.com/thunlp/THULAC
斯坦福分词器 https://nlp.stanford.edu/software/segmenter.shtml
Hanlp分词器 https://github.com/hankcs/HanLP
结巴分词 https://github.com/yanyiwu/cppjieba
KCWS分词器(字嵌入+Bi-LSTM+CRF) https://github.com/koth/kcws
ZPar https://github.com/frcchang/zpar/releases
IKAnalyzer https://github.com/wks/ik-analyzer

详情请看知乎文章: 其中竹间智能 Emotibot的回答最有参考价值
https://www.zhihu.com/question/19578687

PS: 实测我的MBA Yosemite装不了HIT-LTP (T.T)


Chapter3: 分词技术

语料库链接(在百度上搜索了一些,发现能用的还是挺多):
1. 《某位不知名NLPer的整理》


常见的三种分词技术

  1. 机械式分词法(基于词典)
  2. 基于语法和规则的分词法
  3. 基于统计的分词法(要考虑词粒度等)
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值