卷积神经网络中的误差计算和梯度更新

本文介绍了卷积神经网络中误差的计算和反向传播过程,旨在通过反向传播得到每个参数的损失梯度。接着详细阐述了权重更新的三个步骤,包括采用分批次样本的原因,以及不同优化器如SGD、SGD+Momentum、Adagrad、RMSprop和Adam的工作原理和优缺点。这些优化器通过调整学习率,帮助网络避免噪声干扰和局部最优解,从而提高模型训练效果。
摘要由CSDN通过智能技术生成

卷积神经网络中的误差计算和梯度更新

前言

该文章是跟随B站UP主霹雳吧啦Wz学习
霹雳吧啦WzB站主页

-----------------------------------------------------------------------------------------------------------

一、误差的计算

二、误差的反向传播

目的

将误差反向传播到每个参数,得到每个参数的损失梯度

三、权重的更新

1.公式
image-20220508182340622

2.采用分批次样本求解的原因

实际应用中算计往往不够,内存也不足

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值