深度学习
文章平均质量分 81
login_sonata
这个作者很懒,什么都没留下…
展开
-
改进神经网络的方法(学习缓慢,过拟合,梯度消失)
本文内容来自:Michael Nielsen的《Neural Networks and Deep Learning》中文翻译学习缓慢问题产生原因我们之前用的代价函数都是二次代价函数: a是神经元的输出,假设训练输入x=1,输出y=0,求权重和偏置的偏导数有: 偏导数受激活函数的变化率的影响,假设我们激活函数为sigmoid函数,我们看一下函数图像: 当神经元的输出接近1的时候,曲线原创 2017-08-06 19:04:14 · 3649 阅读 · 0 评论 -
CNN卷积神经网络和反向传播
本文内容来自: 1,Michael Nielsen的《Neural Networks and Deep Learning》中文翻译 2,http://www.cnblogs.com/pinard/p/6494810.html 3,http://blog.csdn.net/yunpiao123456/article/details/52437794卷积神经网络基础:首先看一下全连接网络,即神经元原创 2017-08-26 16:03:41 · 65080 阅读 · 13 评论 -
神经网络基础和反向传播推导
本文内容来自:Michael Nielsen的《Neural Networks and Deep Learning》中文翻译神经网络基础 神经元是一个类似感知器的东西,有多个输入。每个输入有权重w,最后有一个总的偏置b。输出不再是感知器那样的0或1,而是经过激活函数计算后的值。常用激活函数比如sigmoid函数,也叫logistic函数,如下所示,其中z=wx+b: 关于激活函数:它其实就是一原创 2017-08-06 16:00:29 · 14998 阅读 · 2 评论