深度神经网络原理代码实战学习笔记

这一章的内容其实就是把深度神经网络原理用MNIST分类代码讲解了一遍,其实还是前几节的内容,只不过更细一些,估计是老师担心大家前面没学懂,又在这把前面的内容总结再讲,以利于大家都听懂吧。
更细的方面应该有以下两点吧:
1、学习率如何退化,说白了就是一开始学习率较大利于跳过一些山谷即局部最优问题。
2梯度下降四个优化算法的区别,这一块我开始并不明白,SGD为何会导致参数学习收敛过程震荡,咨询老师,老师说SGD意思就是随机抽100张图片组成一批次数据来训练模型,这样数据的特征差异比较明显,W参数是根据数据特征来学习的,所以每次求解值也会不同,随着训练轮数越来越多把所有数据都看了几轮了,学了几轮特征,就会渐渐收敛。而其它几个算法都是在此基础上加入特定优化算法,以取得更好更快的效果。
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值