反向传播与梯度下降

计算图(等待编辑中)

Affine层

softmax函数

y k = e x p ( x k ) ∑ 1 n e x p ( x i ) y_k=\frac{exp(x_k)}{\sum{_1^n} exp(x_i)} yk=1nexp(xi)exp(xk)
直接使用该函数会导致溢出,用下面函数替换
y k = e x p ( x k ) ∑ 1 n e x p ( x i ) = e x p ( x k + C ) ∑ 1 n e x p ( x i + C ) y_k=\frac{exp(x_k)}{\sum{_1^n} exp(x_i)}=\frac{exp(x_k+C)}{\sum{_1^n} exp(x_i+C)} yk=1nexp(xi)exp(xk)=1nexp(xi+C)exp(xk+C)

误差反向传播

误差反向传播算法仅仅是一种在神经网络的训练过程中用来计算梯度的方法,它能够计算损失函数对网络中所有模型参数的梯度,这个梯度会反馈给某种学习算法,例如梯度下降法,用来更新权值,最小化损失函数。

步骤一:设置模型参数初始值

步骤二:正向计算预测值
使用模型参数初始值和输入值x,逐层计算,得到神经网络的预测值0.59,它而样本标签0.8相差比较大,因此需要使用误差函数来调整模型参数,也就是训练网络。

第三步:计算误差
使用平方损失函数计算出预测值和标签值之间的误差。

第四步:误差反向传播
使用误差反向传播算法对误差损失函数的梯度信息进行反向传播,同时更新所有的模型参数,首先更新输出层模型参数。

梯度下降

优化器

自适应学习率

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值