tensorflow(神经网络)学习笔记(三)之调参数(笔记)

目录
卷积网络调参

  1. 调整学习率
  2. 选择不同的激活函数
  3. 网络初始化
  4. 批归一化
  5. 数据增强

卷积神经网络调参

在这里插入图片描述
α是对每一个神经元结构来说的.所以对于稀疏的问题来说就更明显了,很难学习到稀疏问题上的信息,然后将学习率α调小,但是又对于稀疏问题来说,还没有学习到足够的信息,使得下降梯度不够大,无法得到收敛
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
变种
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
手动设置
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
各自的优缺点
在这里插入图片描述
在这里插入图片描述
当x<0时,输出一直为0进入死循环.
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
单层原因:(在最后是损失函数计算中,这个参数是可以直接用到的,梯度可以直接计算在这个参数上)
多层原因:链式法则,第一层的输入为0,导致第二层的输入也为0, 导致后面的全为0

在这里插入图片描述
在这里插入图片描述
在底层表现不错,越往高层,越接近于0,梯度的计算和激活值是很有关系的,激活值接近于0的原因在于方差太小了
在这里插入图片描述
在方差太大的情况下,表现的依然不好,在于tanh的函数图像的分布
在这里插入图片描述

W = np.random.randn(fan_in, fan_out) / np.sqrt(fan_in)

在这里插入图片描述
在这里插入图片描述
改进
在这里插入图片描述
批归一化:为了使得每一层的激活值比较统一,在每一层得到激活值之后,做一个归一化的处理
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入方法图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值