神经网络:细节知识点笔记

这篇博客深入探讨了神经网络在训练过程中遇到的问题,如梯度消失与爆炸、局部最小值和鞍点、退化及过拟合现象,并介绍了激活函数的作用。同时,讲解了不同的梯度下降策略,如批量梯度下降、随机梯度下降和小批量梯度下降,以及损失函数的选择。此外,还提到了输入和输出的预处理方法,权重初始化和学习率的重要性。
摘要由CSDN通过智能技术生成

1 问题

1.1 梯度问题

▽ u l L = ( W l + 1 ) T [ ▽ u l + 1 L ] ⨀ f ′ ( u l ) \bigtriangledown _{u^l}L=(W^{l+1})^T[\bigtriangledown _{u^{l+1}}L]\bigodot f^{\prime}(u^l) ulL=(Wl+1

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值