神经网络
jiangjingxuan
这个作者很懒,什么都没留下…
展开
-
The Unreasonable Effectiveness of Recurrent Neural Networks
There’s something magical about Recurrent Neural Networks (RNNs). I still remember when I trained my first recurrent network forImage Captioning. Within a few dozen minutes of training my first baby转载 2017-02-07 10:00:05 · 2558 阅读 · 0 评论 -
Understanding LSTM Networks
Recurrent Neural NetworksHumans don’t start their thinking from scratch every second. As you read this essay, you understand each word based on your understanding of previous words. You don’t throw转载 2017-02-07 10:38:12 · 356 阅读 · 0 评论 -
机器学习算法中如何选取超参数:学习速率、正则项系数、minibatch size
学习速率(learning rate,η)运用梯度下降算法进行优化时,权重的更新规则中,在梯度项前会乘以一个系数,这个系数就叫学习速率η。下面讨论在训练时选取η的策略。固定的学习速率。如果学习速率太小,则会使收敛过慢,如果学习速率太大,则会导致代价函数振荡,如下图所示。就下图来说,一个比较好的策略是先将学习速率设置为0.25,然后在训练到第20个Epoch时,学习速率改为0.025。转载 2017-02-17 16:34:58 · 471 阅读 · 0 评论 -
图像语义分析--深度学习方法
本文 转自:语义分析的一些方法(三),主要论述了基于深度学习方法的图像语义分析,包括图片分类、图片搜索、图片标注(image2text、image2sentence),以及训练深度神经网络的一些tricks,最后还简要地提及语义分析方法在腾讯广点通上的实际应用。文中没有复杂的公式、原理,但总结了图像语义分析一些state of the art的方法,值得一读。转载 2017-02-17 16:45:21 · 1240 阅读 · 0 评论 -
反向传播神经网络极简入门
我一直在找一份简明的神经网络入门,然而在中文圈里并没有找到。直到我看到了这份162行的Python实现,以及对应的油管视频之后,我才觉得这就是我需要的极简入门资料。这份极简入门笔记不需要突触的图片做装饰,也不需要赘述神经网络的发展历史;要推导有推导,要代码有代码,关键是,它们还对得上。对于欠缺的背景知识,利用斯坦福大学的神经网络wiki进行了补全。单个神经元神经网络是多个“神经元”(感知机转载 2017-02-03 15:24:40 · 511 阅读 · 0 评论