最近频繁用到斯坦福的词性和依存分析,按照以往的用法,都是参考他们给出的demo进行一句话或者文件式的解析,可是却不能从根本上解决我的问题
因为连字符的原因,分割后单词的位置发生了变化,在大牛的帮助下,开始使用 List<CoreLabel>来存储单词,无论句子如何分割,句子中的单词的位置
不用发生变化。然后更深一步List<CoreLabel>进行词性标注和依存分析,不再进行String一句话式的解析了。可以将stanford 的直接套用了。
此处给出stanford NLP 的API,以供进一步查询:
http://nlp.stanford.edu/nlp/javadoc/javanlp/