- 博客(1)
- 收藏
- 关注
转载 Spark 使用ansj进行中文分词
在Spark中使用ansj分词先要将ansj_seg-5.1.1.jar和nlp-lang-1.7.2.jar加入工程ansj源码github:https://github.com/NLPchina/ansj_segansj下载链接:https://oss.sonatype.org/content/repositories/releases/org/ansj/ansj_seg/...
2017-12-08 18:44:00 299
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人