NLP分词和在线分词大总结

一、在线分词

1、哈工大主干分析,有词性标记

https://ltp.ai/demo.html

2、百度在线词法分析,也就包含分词

https://ai.baidu.com/tech/nlp_basic/lexical

3、hanlp词法分析

https://hanlp.hankcs.com/

4、结巴(jieba)在线分词

https://app.gumble.pw/jiebademo/

 

二、离线分词

1、jieba分词

     安装与使用

pip install jieba

#使用
import jieba 
jieba.cut('NLP分词工具')

   2、pkuseg 北京大学开源

安装与使用

pip3 install -U pkuseg
import pkuseg

seg = pkuseg.pkuseg()           # 以默认配置加载模型
text = seg.cut('我爱北京天安门')  # 进行分词
print(text)

3、百度词法分析

全自动安装: pip install lac
半自动下载:先下载http://pypi.python.org/pypi/lac/,解压后运行 python setup.py install
from LAC import LAC

# 装载分词模型
lac = LAC(mode='seg')
# 单个样本输入,输入为Unicode编码的字符串
text = u"LAC是个优秀的分词工具"
seg_result = lac.run(text)

第二种使用方法 使用paddleHub

    lac = hub.Module(name="lac")  ### 这些代码在paddle demo下
    test_text = ["今天是个好日子", "天气预报说今天要下雨", "下一班地铁马上就要到了"]

    # Set input dict
    inputs = {"text": test_text}

 

  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Ai君臣

学会的就要教给人

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值