中文分词工具

1.ansj_seg

github地址:https://github.com/NLPchina/ansj_seg

文档地址:http://nlpchina.github.io/ansj_seg/

分词速度快,目前实现了.中文分词. 中文姓名识别 . 用户自定义词典,关键字提取,自动摘要,关键字标记等功能。

maven配置:

        <dependency>
            <groupId>org.ansj</groupId>
            <artifactId>ansj_seg</artifactId>
            <version>5.1.1</version>
        </dependency>

使用方法:

 String sentence ="从创立以来,拼多多瞄准三四五线城市及县城乡镇,通过“农村包围城市”的差异化策略,主打低价拼单模式,在阿里、京东的市场垄断中异军突起。";
  Result parse =  ToAnalysis.parse(sentence);
  System.out.println(parse.getTerms().toString() );
//分词结果
[从/p, 创立/v, 以来/f, ,/w, 拼/v, 多多/d, 瞄准/v, 三四五线/m, 
城市/n, 及/c, 县城/n, 乡镇/n, ࿰
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值