- 博客(3)
- 收藏
- 关注
原创 批梯度下降和随机梯度下降区别
批梯度下降(Batch Gradient Descent,BGD)和随机梯度下降(Stochastic Gradient Descent,SGD)是两种常用的梯度下降优化算法,用于训练机器学习模型。它们的主要区别在于每次更新梯度的方式。BGD通常用于较小的数据集或者GPU计算,而SGD通常用于大规模数据集和在线学习。在随机梯度下降中,每次迭代时,从训练数据集中随机选择一个样本来计算梯度并更新模型参数。在批梯度下降中,每次迭代时,使用整个训练数据集来计算梯度,并更新模型参数。
2023-10-16 15:24:04 102 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人