CS231n 计算机视觉(学习笔记)第六章(0805)

本章节详细介绍了计算机视觉中的深度学习技术,重点讨论了激活函数如Sigmoid、tanh、ReLU及其变种,强调了ReLU在解决梯度消失问题上的优势。此外,还探讨了数据预处理的重要性,包括零均值化和标准差归一化。同时,权重初始化的方法,特别是Xavier初始化,以及批量归一化的概念和作用也被深入阐述。最后,监控训练过程和超参数调整的策略,如学习率的选择,对于优化模型性能至关重要。
摘要由CSDN通过智能技术生成

第六章

最小批量随机梯度下降:

	连续的批量抽样
	通过计算图或神经网络将数据正向传播  得到损失值
	通过整个网络的反向传播  计算梯度
	使用这个梯度  更新网络中的参数或权重

6.1 激活函数

  1. Sigmoid----类似神经元的饱和放电率
    存在梯度消失的问题,输入绝对值太大;
    非0中心函数,当输入值仅为正或负时,梯度沿相同方向变化;
    计算代价较大
  2. tanh(x)----零中心
    饱和时,梯度消失
    表现略强于Sigmoid
  3. ReLU f(x)=max(0,x)
    在正区,不会出现饱和
    计算速度快、代价小,更快收敛
    更加具备生物学上的合理性
    dead ReLU:在整个半区出现梯度消失
  4. Leaky ReLU f(x)=max(0.01x,x)
  5. PReLU f(x)=max(ax,x)
  6. ELU----输出均值更接近0
  7. Maxout Neuron
    泛化,在两个线性函数中取最大值
    但参数量、涉及神经元数量 翻倍

6.2 数据预处理

标准类型:零均值化(零中心化,常用)、标准差归一化
减去某个通道的均值(容易传送和处理)

6.3 初始化权值

Eg.如果初始值全部赋0,则所有神经元将采取相同操作,即所有神经元将一致
小型网络:小的随机数,标准高斯分布

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值