深度学习基础 多层感知器&反向传播算法

本文介绍了深度学习中的多层感知器和反向传播算法。详细阐述了权重矩阵、偏置向量、激活函数、损失函数等概念,并通过反向传播过程解释了权重和偏置的更新方法,使用随机梯度下降法更新网络参数,通过逐层反向传播计算各层的更新值。
摘要由CSDN通过智能技术生成

定义:
1. W ( l ) W^{(l)} W(l)为第 ( l − 1 ) (l-1) (l1)层至第l层的权重矩阵, w j , k ( l ) w^{(l)}_{j,k} wj,k(l) W ( l ) W^{(l)} W(l)中的第行第 k k k列的一项,表示第 ( l − 1 ) (l-1) (l1)层第 k k k个节点到第 l l l层第 j j j个节点的权重(注意这里 j , k j,k j,k的对应)。
2. b ( l ) b^{(l)} b(l)为第 l l l层的偏置向量, b j ( l ) b^{(l)}_{j} bj(l)为第 l l l层第 k k k个节点的偏置。
3. σ ( . . . ) \sigma(...) σ(...)代表激活函数。
4. a ( l ) = σ ( z ( l ) ) a^{(l)}=\sigma(z^{(l)}) a(l)=σ(z(l)),其中 a j ( l ) = σ ( z j ( l ) ) a^{(l)}_{j}=\sigma(z^{(l)}_{j}) aj(l)=σ(zj(l))
5. z ( l ) = W ( l ) a ( l − 1 ) + b ( l ) z^{(l)}=W^{(l)}a^{(l-1)}+b^{(l)} z(l)=W(l)a(l1)+b(l),其中 z j ( l ) = ( ∑ k w j , k ( l ) a k ( l − 1 ) ) + b j ( l ) z^{(l)}_{j}=(\sum_{k}{w^{(l)}_{j,k}a^{(l-1)}_{k}})+b^{(l)}_{j} zj(l)=(

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值