corenlp分词 stanford_使用Stanford CoreNLP进行中文分词

本文介绍了如何在项目中配置Stanford CoreNLP进行中文分词。通过Gradle添加依赖,下载并引入必要的模型文件,如stanford-corenlp-3.8.0-models.jar和stanford-chinese-corenlp-2017-06-09-models.jar。通过StanfordCoreNLP-chinese.properties配置文件调整参数,并提供示例代码展示如何实例化和使用StanfordCoreNLP进行文本处理。需要注意的是,处理中文需要较大的内存,因此建议设置JVM参数。
摘要由CSDN通过智能技术生成

所以可以直接配置gradle依赖。对不同的语言通过classifier选择对应的model。其中models是其他语言models的基础,默认可以处理English,必须引入。我们需要处理中文,所以还需要:models-chinese。

然而models和models-chinese两个包很大,下载有点慢(对网速自信的童鞋可以无视“然而”)。所以我就用迅雷下载好通过本地文件引入。

// Apply the java plugin to add support for Java

apply plugin: 'java'

// In this section you declare where to find the dependencies of your project

repositories {

// Use 'jcenter' for resolving your dependencies.

// You can declare any Maven/Ivy/file repository here.

maven {

url "http://maven.aliyun.com/nexus/content/groups/public"

}

jcenter()

}

// In this section you declare the dependencies for your production and test code

dependencies {

// https://mvnrepository.com/artifact/edu.stanford.nlp/stanford-corenlp

compile group: 'edu.stanf

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值