图深度学习——前馈神经网络及训练

前馈神经网络

一个前馈神经网络中叠加了很多神经元
在这里插入图片描述

人工神经元

输入是一组向量 x 1 , x 2 , x 3 , x 4 x_1, x_2, x_3, x_4 x1,x2,x3,x4, 参数 w 1 , w 2 , . . . , w 4 w_1, w_2, ...,w_4 w1,w2,...,w4,参数用于加权求和,通常来说,还会加入偏置 b b b。激活函数:引入非线性变换,可以帮助对更复杂事物进行建模。
在这里插入图片描述

激活函数

  • relu函数,输入为正,那么输入和输出相同,否则输出为0
  • sigmoid函数,输出区间(0,1)
  • tanh函数,在循环神经网络RNN,LSTM中有应用。

在这里插入图片描述

输出层和损失函数

回归任务:ground truth(基准),经过神经网络的预测值去逼近基准值。

损失函数:

ℓ ( y , y ^ ) = ∥ y − y ^ ∥ 2 2 \ell(\mathbf{y}, \hat{\mathbf{y}})=\|\mathbf{y}-\hat{\mathbf{y}}\|_{2}^{2} (y,y^)=yy^22

L ( W ) = 1 n ∑ i = 1 n ℓ ( y ( i ) , y ^ ( i ) ) \mathcal{L}(\mathbf{W})=\frac{1}{n} \sum_{i=1}^{n} \ell\left(\mathbf{y}^{(i)}, \hat{\mathbf{y}}^{(i)}\right) L(W)=n1i=1n(y(i),y^(i))

其中, ℓ ( y ( i ) , y ^ ( i ) ) \ell\left(\mathbf{y}^{(i)}, \hat{\mathbf{y}}^{(i)}\right) (y(i),y^(i)) 表示第 i i i 个训练样本。

在这里插入图片描述

分类任务:基准是一个one-hot编码。对神经网络的输出做一个softmax得到类别的概率,再通过交叉熵损失来衡量预测得到的概率和基准之间的差距。

在这里插入图片描述

神经网络的训练

优化目标

W ∗ = arg ⁡ min ⁡ W L ( W ) = 1 n ∑ i = 1 n ℓ ( y ( i ) , y ^ ( i ) ) \mathbf{W}^{*}=\arg \min _{\mathbf{W}} \mathcal{L}(\mathbf{W})=\frac{1}{n} \sum_{i=1}^{n} \ell\left(\mathbf{y}^{(i)}, \hat{\mathbf{y}}^{(i)}\right) W=argminWL(W)=n1i=1n(y(i),y^(i))

最小化损失函数,一般采用梯度下降算法。
梯度下降:梯度方向是函数值上升最快的方向。

W n + 1 ← W n − η ∇ L ( W n ) \mathbf{W}_{n+1} \leftarrow \mathbf{W}_{n}-\eta \nabla \mathcal{L}\left(\mathbf{W}_{n}\right) Wn+1WnηL(Wn)

这里的 n n n 是梯度下降的步数。

反向传播

高效计算梯度。如,考虑每一层只有一个神经元的情况
在这里插入图片描述
这里的 w ( h 0 , h 1 ) w_{(h_0,h_1)} w(h0,h1) 是参数

参数梯度–关于参数的偏导数–使用链式法则
在这里插入图片描述
神经网络有很多层,需要计算量很大(指数型增长),所以提出反向传播解决梯度计算问题。
在这里插入图片描述
考虑每一层都有多个神经元的情况,相比单个神经元会更复杂,但原理是相似的。
在这里插入图片描述

  • 3
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值