- 博客(5)
- 资源 (8)
- 收藏
- 关注
原创 snownlp文本情感分析使用
snownlp为python版的文本分析工具,ubuntu安装snownlp命令为:pip install snownlp。利用snownlp可以进行分词、词性标注、文本摘要提取、文本情感分析等,下面贴出snownlp分词、词性标注、情感分析代码如下:from snownlp import SnowNLPs = SnowNLP(u'这个东西真心很赞')key=s.words # [
2017-01-16 13:57:24 29131
原创 清华大学thulac分词和词性标注代码理解
清华大学的thulac中分分词词法包,包含有中文分词和词性标注,从测试精度和速度看,效果还不错,github上有提供c++和python代码,c++代码包含有训练和测试代码,python代码只有测试代码,速度也较慢,github地址为:https://github.com/thunlp/THULAC。 根据github上提出的参考文献,完全无法看懂代码和文章有什么关系,代码也比较难以理
2017-01-15 15:46:53 9355
原创 Simple and Accurate Dependency Parsing Using Bidirectional LSTM Feature Representations
对于句子s,将其分词为n个词wi,每个词wi对应取wi的词性为ti,取向量e(wi),和词性向量e(ti),将词向量和词性向量串联得到新的向量xi=concat(e(wi),e(ti))。BILSTM 向量vi=BILSTM(x_1:n,i)=concat(RNN_F(x_1:i),RNN_R(x_n:i))将一小部分的BILSTM 向量vi串联,从而得到特征向量F,实际的特征向量F依赖于
2017-01-08 14:08:09 1395 2
linux-64-opencv3-3.1.0-py27_0.tar.bz2
2018-08-08
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人