深度学习课程学习笔记1

1. BP神经网络

BP神经网络是一种常用的人工神经网络,它可以用于分类、回归等任务。其基本原理是通过反向传播算法来训练网络参数,从而实现对输入输出关系的建模。下面简要介绍BP神经网络的基本原理和相关公式。

1.1 神经网络结构

BP神经网络包含输入层、隐藏层和输出层。输入层接收输入数据,隐藏层通过一系列非线性变换将输入数据映射到一个高维空间中,输出层将映射后的数据进行分类或回归。具体来说,每个节点都有一个激活函数,用于将输入信号转换为输出信号。
Alt

BP神经网络示意图

1.2 前向传播

在训练过程中,我们需要将输入数据通过神经网络,计算出网络的输出结果。这个过程称为前向传播。具体来说,对于一个输入向量 x x x,我们可以通过以下公式计算出网络的输出结果 y y y
y = f ( w o u t f ( w h i d d e n x ) ) y = f(w_{out}f(w_{hidden}x)) y=f(woutf(whiddenx))
其中, f f f表示激活函数, w h i d d e n w_{hidden} whidden w o u t w_{out} wout表示隐藏层和输出层的权重矩阵。

1.3 反向传播

在前向传播的基础上,我们需要计算出网络的误差,并通过反向传播算法来更新权重矩阵,从而最小化误差。具体来说,我们可以使用均方误差函数作为网络的损失函数,计算出网络的误差 E E E
E = 1 2 ( y − t ) 2 E = \frac{1}{2}(y - t)^2 E=21(yt)2
其中, t t t表示目标输出。

通过链式法则,我们可以计算出每个节点的误差梯度,并使用梯度下降算法来更新权重矩阵。具体来说,我们可以使用以下公式来更新隐藏层和输出层的权重矩阵。
Δ w h i d d e n = − η ∂ E ∂ w h i d d e n \Delta w_{hidden} = -\eta \frac{\partial E}{\partial w_{hidden}} Δwhidden=ηwhiddenE
Δ w o u t = − η ∂ E ∂ w o u t \Delta w_{out} = -\eta \frac{\partial E}{\partial w_{out}} Δwout=ηwoutE
其中, η \eta η表示学习率。
通过不断迭代前向传播和反向传播过程,我们可以逐步优化神经网络,从而实现对输入输出关系的建模。

2. 动量法

动量法是一种常用的加速神经网络训练的方法。它的基本思想是:在更新权值时,不仅考虑当前的梯度,还要考虑之前的权值更新量的影响。通过引入一个动量因子,可以让网络在更新权值时向之前的方向继续前进,从而加速收敛。
动量法的更新公式为:
v t = α v t − 1 + η ∇ w J ( w t − 1 ) v_t = \alpha v_{t-1} + \eta \nabla_w J(w_{t-1}) vt=αvt1+η

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值