神经网络
文章平均质量分 50
N维空间1
这个作者很懒,什么都没留下…
展开
-
神经网络训练中的Tricks之高效BP(反向传播算法)
转载:神经网络训练中的Tricks之高效BP(反向传播算法)神经网络训练中的Tricks之高效BP(反向传播算法)zouxy09@qq.comhttp://blog.csdn.net/zouxy09 Tricks!这是一个让人听了充满神秘和好奇的词。对于我们这些所谓的尝试应用机器学习技术解决某些问题的人,更是如此。曾记得,我们绞尽脑汁,搓手转载 2015-06-25 16:00:18 · 541 阅读 · 0 评论 -
神经网络自学经验整理
神经网络自学经验整理业余时间自学神经网络,一年多来时断时续,遇到了各种各样的坑,各种不收敛,现整理一些经验,不对之处欢迎指出问题1:迅速收敛到一个误差很大的局部极小值迭代一两步后,误差不再变小,隐藏层梯度几乎为0,但输出层梯度接近0或不接近0. 解决方法:检查隐藏层和输出层的输出值,如果输出值都是0(tanh激活),或都是0.5(sigmoid激活),说明权值初始化不好,冲量项系数太小。初始权值原创 2015-05-18 23:18:24 · 882 阅读 · 1 评论