nlp
_ToClannadQAQ
这个作者很懒,什么都没留下…
展开
-
word2vec 公式推导
https://www.cnblogs.com/peghoty/p/3857839.html转载 2019-11-29 06:20:56 · 213 阅读 · 0 评论 -
nlp 从Word Embedding到Bert
参考自知乎https://zhuanlan.zhihu.com/p/49271699转载 2019-08-20 17:42:16 · 114 阅读 · 0 评论 -
word2vec 词向量的理解
word2vec词向量的理解参考自知乎 - [NLP] 秒懂词向量Word2vec的本质 https://zhuanlan.zhihu.com/p/26306795转载 2019-08-16 11:44:34 · 305 阅读 · 0 评论 -
word2vec+textcnn
word2vec+textcnn参考自 https://www.jianshu.com/p/f69e8a306862转载 2019-08-16 18:06:37 · 1266 阅读 · 0 评论 -
Encoder-Decoder、Seq2Seq、Attention
RNN中为什么使用使用tanh激活,不用sigmoid、ReluEncoder-Decoder模型Seq2SeqAttention机制转载自https://blog.csdn.net/dcrmg/article/details/84396211转载 2019-09-04 14:57:17 · 154 阅读 · 0 评论 -
attention
转载https://blog.csdn.net/BVL10101111/article/details/78470716转载 2019-09-28 16:49:56 · 291 阅读 · 0 评论