因为使用jieba分割后得到的是字典类文档,我不会进行处理,所以尝试着使用nltk包的nltk.sent_tokenize(text)方法进行词句分割(这个忙了一天,结果发现他是把每一句的词排成一个数列,还是不行,又回去用jieba了)
2021-07-08
最新推荐文章于 2021-11-10 17:26:45 发布
因为使用jieba分割后得到的是字典类文档,我不会进行处理,所以尝试着使用nltk包的nltk.sent_tokenize(text)方法进行词句分割(这个忙了一天,结果发现他是把每一句的词排成一个数列,还是不行,又回去用jieba了)