理解DL的局部最小

深度学习在高维空间的梯度下降过程中,遇到的主要问题是鞍点而非局部最小值。大多数局部极小值在损失函数底部,接近全局最小。研究指出,糟糕局部极小值的吸引域较小。优化策略包括设计恰当的损失函数,选择初始权重分布,如均匀或高斯,使用梯度截断和动量优化,以及批量归一化来避免平坦区域和提高优化效果。
摘要由CSDN通过智能技术生成

    DL是在一个非常高维的世界里做梯度下降。局部最小值很难形成,因为局部最小值要求函数在所有维度上都是局部最小。更实际得情况是,函数会落到一个鞍点上,如下图:


评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值