神经网络优化(一)

使用反向传播算法和梯度下降算法调整神经
网络中参数的取值。

1.神经网络优化过程

神经网络的优化过程分为两个阶段

1.1第一阶段:

先通过前向传播算法计算得到预测值,并将预测值和真实值做对比得出两者之间的差距。

1.2第二阶段:

通过反向传播算法计算损失函数对每一个参数的梯度,再根据梯度和学习率使用梯度下降算法更新每一个参数。

2.梯度下降算法

2.1.梯度下降算法

主要用于优化单个参数的取值,
损失函数J(theta)公式如下:

\theta_{n+1}=\theta_n -\eta\frac{\delta}{\delta\theta_n}J(\theta_n)

eta是学习率

缺点
  1. 受初始值的设定的影响,不一定能达到全局最优。
  2. 计算全部数据的损失,计算时间太长。

2.2随机梯度下降

在每一轮迭代中随机优化某一条训练数据上的损失函数。

缺点

某一条训练数据上的更小,不能代表在全部数据上损失函数更小。甚至无法达到局部最优。

折中的方法是每次使用有个batch

3.反向传播算法

给出了一个高效的方式在所有参数上使用梯度下降算法,从而使得神经网络模型在训练数据上的损失函数尽可能小。反向传播算法是训练神经网络的核心算法。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值