stanford parser中文句法分析时注意的问题

最近做中文自然语句语义分析方面的事情,要用到中文NLP技术,于是在stanford university的NLP小组web页上下载相关java包,开始应用。


第一步:导入parser的包和相关的文件,并在项目中添加对包的引用。截图如下所示:



第二步:在入口java文件里面编写具体引用的Model,代码如下:

                LexicalizedParser lp = LexicalizedParser.loadModel("model/englishPCFG.ser.gz");//这里引用的路径根据自己建的目录来

这里碰到的问题也记录下来,如果引用的是“model/chinesePCFG.ser.gz”那么后面做中文语句的句法分析报错,截图如下:

找到相关API的说明,因此这里没搞清楚原因。但是如果就使用“model/englishPCFG.ser.gz”是正确的,望各位同学使用时一定注意。

第三步:初步使用parser,体验不错哦。对于语句“西瓜的描述”中文语句,句法依赖关系输出截图如下:


小   结:总体上来说引用了该包以后就可以方便使用啦,但是有很多api实在是不知道做啥用的,也没有找到API doc。希望有doc的同学能发给我一份,不胜感激!


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值