- 博客(4)
- 资源 (3)
- 收藏
- 关注
翻译 LSTM论文翻译-《Understanding LSTM Networks》
1. 循环神经网络(RNNs)人们并不是每一秒都重新开始新的思考的,就像你读这篇论文,你基于以前对词句的认知来理解每一个词,而不是丢掉以前所有的知识,重新开始构思新的想法。人们的思维是持续的。传统的神经网络是不会持续思考的,这是它的主要短板,例如,想象你要区分一部电影在每个时间段发生那种事件,传统的神经网络(以下称NN)怎样合理的将电影前面发生的事件传递给后面的事件呢?这是不明的。
2016-07-25 09:22:41 23064 2
原创 word2vec源代码解析
// Copyright 2013 Google Inc. All Rights Reserved.//// Licensed under the Apache License, Version 2.0 (the "License");// you may not use this file except in compliance with the License.// You may obta
2016-07-21 13:03:05 1925
原创 Word2Vec程序解析
word2vec主要的层次结构vocab是一个结构体数组。*Vocab_hash是一个hash链表。vocab存入词的时候实际是按照先后顺序存储的。为了方便查找,在词存入的时候顺便把词在链表中的位置存入到vocab_hash中,而该词的vocab_hash位置有hash(word)决定,这样查找起来很快。 ReadWord:逐个字符读入词(一个汉字是不是拆成两个字符
2016-07-20 20:16:05 3458
转载 【Deep Learning学习笔记】Efficient Estimation of Word Representations in Vector Space_google2013
转自http://blog.csdn.net/xceman1997/article/details/10047933标题:Efficient Estimation of Word Representations in Vector Space作者:Tomas Mikolov发表于:ICLR 2013主要内容:在NLP中,每一个词语都表示称实数
2016-07-20 09:55:07 636
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人