FAQ
1. 分词时候需要进行扩展字典,自定义字典的格式是怎样的,如何把自定义的字典加载进去?
需要在本地编译ltp(推荐使用linux),编译后调用静态链接库,具体方法见这里:从源代码编译安装LTP 关于词典格式,词的分割用空格。例如:我 是 中国 人 。 疯狂 的 兔子
2. 采用句法分析时候,是不是要先分好词,然后将分词结果输入到句法分析接口中才能找出句子的依存关系?但我看到bin下面的ltp_test是直接给定待分析文本的路径就可以直接给出句子的依存关系(其中包括分词,词性都分好了),那我可不可以直接给定自定义的分词字典?
如果您需要使用外部字典做分词,又想使用依存句法分析,推荐您使用lib来调用ltp,具体可以参考http://t.cn/zRcKbd4目录下的样例文件。
3.如何指定自己自定义字典中词的词性呢?我发现根据自己定义的字典,有些词性分的有问题。
现在只有分词模块支持词典,词性标注还没加入词典支持,后续版本会考虑引入词典机制。
4. 我在本地使用ltp的时候出现 [ERROR] … in LTP::wordseg, failed to load segmentor resource 是怎么回事儿?
出现这个情况,是因为模型文件不存在或路径与配置文件不相符。在ltp运行时,首先需要知道配置文件,这是在调用程序是指定。配置文件中指定了模型的路径,如下所示:segmentor-model = ltp_data/cws.model postagger-model = ltp_data/pos.model parser-model = ltp_data