机器学习:对于反向传播算法(backpropagation)的理解以及python代码实现

本文深入解析神经网络中的反向传播算法,详细解释了δ的传播方式,并提供了Python代码示例来展示如何计算权重的偏导数。通过逐步分析,文章帮助读者理解从最后一层到任意一层的误差传播过程,并给出简单的神经网络训练实例。
摘要由CSDN通过智能技术生成

本文是对机器学习中遇到的后向传播算法进行理解,假设读者已经知道神经网络中的神经元的含义,激励函数的定义,也知道了后向传播算法那个传播公式等。本文主要是为了理解为什么后向传播算法中的 δ 是安照那个传播方式往后传播。

这里写图片描述

如上图,其中,L是神经网络的层数,a是神经元的输出, θ 是权重(参数)。
对于最后一层的神经元来说,偏差E我们可以很容易地定义:

E=12(a(L)1y)2
所以对 θ(L1)11 求偏导:
Eθ(L1)11=Ea(L)1a(L)1z(L)1z(L)1θ(L1)11

其中, z(L)1=a(L1)1θ(L1)11+a(L1)2θ(L1)12+...+a(L1)Mθ(L1)1M

在这里, δ(L)1=Ea(L)1a(L)1z(L)1

所以, Eθ(L1)11=δ(L)1z(L)1θ(L1)11=δ(L)1a(L1)1

显然,由于我们知道了 a(L

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值