23.梯度下降法的神经网络容易收敛到局部最优,为什么应用广泛

实际情况中,我们可能从来没有找到过“局部最优”,更别说全局最优了、很多人都有一种看法,就是“局部最优是神经网络优化的主要难点。”

在这里插入图片描述
直观的想象,高维的时候这样的局部极值会更多,指数级的增加,于是优化到全局最优就更难了。

现在来看,神经网络的训练的困难问题主要是鞍点问题。在实际中,我们很可能从来没有真的遇到过局部极值。不过,即使有局部极值,具有较差loss的局部极值的吸引域也是很小的。所以实际上很多时候是在“什么也没找到”的情况下就停止了训练,然后拿到测试集上试试却发现“效果不错”。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值