举例说明小批量随机梯度下降的原理

小批量随机梯度下降(Mini-batch Stochastic Gradient Descent,简称 Mini-batch SGD 或 MB-SGD)是一种在深度学习中常用的优化算法。它结合了批量梯度下降(Batch Gradient Descent,BGD)和随机梯度下降(Stochastic Gradient Descent,SGD)的优点,既能较快地收敛,又能有效地利用计算资源。下面举例说明 Mini-batch SGD 的原理。

假设我们有一个神经网络模型,需要通过训练数据来优化模型的参数。训练数据包含 1000 个样本,我们的目标是最小化这些样本上的平均损失函数。

使用 Mini-batch SGD 的步骤如下:

1. 确定 mini-batch 的大小,例如 100。这意味着我们将训练数据分为大小为 100 的小批次,每次迭代只使用一个小批次的数据来更新模型参数。

2. 打乱训练数据的顺序。这一步可以提高随机性,有助于防止模型陷入局部最优解。

3. 按照打乱后的顺序,将训练数据分成 10 个大小为 100 的 mini-batch。这 10 个 mini-batch 将用于更新模型参数。

4. 遍历这 10 个 mini-batch,对于每个 mini-batch,执行以下操作:

  a. 计算当前 mini-batch 中所有样本的损失函数梯度。

  b. 将这些梯度求平均,得到当前 mini-batch 上的平均梯度。

  c. 使用平均梯度来更新模型参数。具体地,将参数沿着梯度的负方向移动一小步&#x

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值