CNN笔记

1 Truncated Normal
在初始化模型的weight的时候,通常使用 truncated_normal.

tf.truncated_normal(
    shape,
    mean=0.0,
    stddev=1.0,
    dtype=tf.float32,
    seed=None,
    name=None
)

tf中的介绍是:
The generated values follow a normal distribution with specified mean and standard deviation, except that values whose magnitude is more than 2 standard deviations from the mean are dropped and re-picked.
也就是两倍标准差之外的生成值都被移除,重新生成,保证所有生成数据都在标准差两倍之内。

2 Activation function ReLU
首先来看一下Sigmoid及其导数形式
f(x)=sigmoid(x)= 11+ex 1 1 + e − x
f’(x)=f(x)*(1-f(x))

Sigmoid的导数始终小于1,其最大值是0.25,如果有很多层网络,这些导数在相乘之后,值会迅速接近0,也就是梯度消失现象。
再来看看ReLU的形式。
Rectified linear unit: f(x)=max(0,x) f ( x ) = m a x ( 0 , x )
ReLU
这个激励函数看起来形式简单,但实际中效果比sigmoid和tanh效果都要好。
主要原因有两个:
第一,ReLU降低梯度消失现象额可能性,这是因为,在x>0的时候,梯度是一个常数,常数梯度也使得学习更快。
第二,ReLU的稀疏性,当x<0时,信号不会被激活。也就保证了部分节点是处于抑制状态。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值