反向传播算法的理解

反向传播算法在神经网络中用于优化权重和偏置,通过计算代价函数的偏导数来最小化损失。本文探讨了算法的实现过程,涉及代价函数、梯度计算和权重更新。常见代价函数如二次代价函数和交叉熵代价函数,反向传播算法基于链式法则计算各层神经元的梯度,最终更新权重和偏置。
摘要由CSDN通过智能技术生成

    BP(Backpropagation Algorithm,反向传播算法)在神经网络学习中有着无可替代的作用,关于其优化方法可阅读该文章《一文看懂各种神经网络优化算法:从梯度下降到Adam方法》。本文仅立足于反向传播的实现过程。文中如有理解偏差,请各位指正。

    就反向传播的字面理解是将数据从后(输出)向前(输入)传递,数据的具体形式是代价函数对其超参数(权重(W)和偏置(b))的偏导数,反向传播的目的是使代价函数达到最小。所以该算法的根本是代价函数对权重和偏置的偏导数的计算方法。所以“反向传导算法”的翻译还是很贴切的。

    首先,看下常见代价函数的形式,公式来自这里

                                              (二次代价函数)

                       (交叉熵代价函数࿰

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值