GD(gradient descent):梯度下降法(BGD,SGD,mini-batch GD)

本文介绍了梯度下降法的三种形式:批量梯度下降(BGD)、随机梯度下降(SGD)和小批量梯度下降(mini-batch GD)。BGD使用所有样本计算平均损失函数进行参数更新;SGD则通过随机选择一个样本进行更新,降低计算开销;mini-batch GD结合两者优点,每次更新基于一小批量样本,平衡效率与稳定性。
摘要由CSDN通过智能技术生成

  梯度下降法(GD,gradient descent)是一种优化方法,比如对某个损失函数进行最小化的优化。
其共有三种:

  1. BGD,batch gradient descent:批量梯度下降
  2. SGD,stochastic gradient descent:随机梯度下降
  3. mini-batch GD,mini-batch gradient descent:小批量梯度下降

BGD

  假设有损失函数:
f ( α 0 , α 1 , . . . , α n , ) = 1 m ∑ m j = 0 ( y ^ − y ) 2 f(\alpha_{0},\alpha_{1},...,\alpha_{n},)=\frac{1}{m}\sum_{m}^{j=0}(\hat{y}-y)^{2} f(α0,α1,...,αn,)=m1mj=0(y^y)

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值