[学习日志]深度学习-李宏毅 深度学习的一些技巧

关于过拟合

过拟合的很重要一个评判标准:在训练集上结果足够好

关于DropOut

只有在训练集很好 且 测试集不好的时候用
如果训练集效果很差,Dropout之后只会更差

关于深度越深效果越差的现象

在这里插入图片描述
这个是由梯度消失导致的,靠近输入端的参数的梯度会很小,更新速度慢.
为什么会这样呢?可以从微分的定义角度来看这个问题:即自变量的微小改变对因变量的影响大小.
然后再结合sigmoid的特性,即实数域到(0,1)的映射.宏观来看是一种缩小,每sigmoid一次,就会缩小一次
那么自变量对因变量的影响,也自然而然的缩小
在这里插入图片描述

RELU函数-激活函数

为了避免上面那个sigmoid导致的问题,提出的新的激活函数,用于中间层激活
在这里插入图片描述
有个问题就是Relu不可微,这个要怎么解决?可以理解成只有在z=0的时候不可微,即大多数情况是可微分的,

激活函数也由学习得来:MaxOut - 自学习激活函数

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值