NLP
文章平均质量分 82
Kavin_Liang
Stay hungry. Stay foolish
展开
-
理解LSTM网络
colah 写了一篇介绍LSTM的博客,写的非常的好。为了能够是自己更加深入的了解。特此,将它翻译了过来。原文地址:http://colah.github.io/posts/2015-08-Understanding-LSTMs/递归神经网络(Recurrent Neural Networks)人类并不会每一秒都重新开始他们的思维。当你阅读这篇文章,你能够基于你前面的理解,来理解当前的每一个单词。你翻译 2015-11-16 12:25:30 · 16720 阅读 · 0 评论 -
word2vec模型
word2vec动机:为什么要学习词向量(Word Embeddings)传统的自然语言处理系统把词(word)当作一个离散的原子符号。比如,猫可以使用Id537来表示,Id143表示狗。这些编码是任意的,这些编码对于系统处理不同的单词并没有提供有用的信息。这就意味着,如果系统已经学习了什么是“猫”的信息,但这个系统处理什么是“狗”是并没有提供很大的帮助(比如:他们都是动物,有四条腿,宠物,等)。这原创 2015-11-17 18:53:50 · 12531 阅读 · 1 评论