机器学习——多层感知机MLP的相关公式

本文详细介绍了多层感知机(MLP)的前向传播、激活函数、损失函数和误差反向传播过程。在前向传播中,涉及加权求和与神经元输出值的计算。激活函数选用Sigmoid,损失函数采用误差平方和。在反向传播中,通过梯度下降更新权重,包括输出层和隐藏层权重的更新规则。对于有多个隐藏层的情况,同样遵循类似的更新原则。
摘要由CSDN通过智能技术生成

i i i作为上一层神经元的下标,或者是输入层节点
j j j作为当前层神经元的下标,或者是隐藏层神经元
k k k作为下一层神经元的下标,或者是输出层神经元

i , j , k i,j,k i,j,k表示不同层的相对关系: i → j → k i\rightarrow j\rightarrow k ijk

w i j w_{ij} wij表示上一层各神经元到当前神经元的权重,也就是神经元 j j j的权重
w j k w_{jk} wjk表示当前神经元与下一层各神经元的权重,也就是神经元 k k k的权重

前向传播

加权求和 h h h

h j = ∑ i = 0 M w i j x j h_j=\sum_{i=0}^Mw_{ij}x_j hj=i=0Mwijxj

  • h j h_j hj表示当前节点的所有输入加权之和

神经元输出值 a a a

a j = g ( h j ) = g ( ∑ i = 0 M w i j x i j ) a_j=g(h_j)=g(\sum_{i=0}^Mw_{ij}x_{ij}) aj=g(hj)=g(i=0Mwijxij)

  • a j a_j aj表示隐藏层神经元的输出值
  • g ( ) g() g()代表激活函数, w w w是权重, x x x是输入, w 0 j x 0 j w_{0j}x_{0j} w0jx0j表示偏移节点(bias node)
  • a j = x j k a_j=x_{jk} aj=xjk,即当前层神经元的输出值,等于下一层神经元的输入值

输出层的输出值 y y y

y = a k = g ( h k ) = g ( ∑ i = 0 M w j k x

  • 6
    点赞
  • 41
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值