小批量梯度下降算法步骤_批量梯度下降(BGD)、随机梯度下降(SGD)以及小批量梯度下降(MBGD)的理解...

本文介绍了批量梯度下降(BGD)、随机梯度下降(SGD)和小批量梯度下降(MBGD)的基本原理与优缺点。在机器学习和深度学习中,这些方法用于优化模型参数。BGD计算所有样本的梯度,适合大型矩阵运算但迭代慢;SGD每次迭代仅用一个样本,速度快但可能收敛到局部最优;MBGD取二者折中,平衡了速度与准确性。
摘要由CSDN通过智能技术生成

梯度下降法作为机器学习中较常使用的优化算法,其有着三种不同的形式:批量梯度下降(Batch Gradient Descent)、随机梯度下降(Stochastic Gradient Descent)以及小批量梯度下降(Mini-Batch Gradient Descent)。其中小批量梯度下降法也常用在深度学习中进行模型的训练。接下来,我们将对这三种不同的梯度下降法进行理解。

为了便于理解,这里我们将使用只含有一个特征的线性回归来展开。此时线性回归的假设函数为:

\[h_{\theta} (x^{(i)})=\theta_1 x^{(i)}+\theta_0

\]

其中 $ i=1,2,...,m $ 表示样本数。

对应的目标函数(代价函数)即为:

\[J(\theta_0, \theta_1) = \frac{1}{2m} \sum_{i=1}^{m}(h_{\theta}(x^{(i)}) - y^{(i)})^2

\]

下图为 $ J(\theta_0,\theta_1) $ 与参数 $ \theta_0,\theta_1 $ 的关系的图:

1、批量梯度下降(Batch Gradient Descent,BGD)

批量梯度下降法是最原始的形式,它是指在每一次迭代时使用所有样本来进行梯度的更新。从数学上理解如下:

(1)对目标函数求偏导:

\[\frac{\Delta J(\theta_0,\theta_1)}{\Delta \theta_j} = \frac{1}{m} \sum_{i=1}^{m} (h_{\theta}(x^{(i)})-y^{(i)})x_j^{(i)}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值