基于梯度的优化方法(梯度下降法)

大多数深度学习的算法多涉及某种形式的优化。优化指的是改变x以最小化或者最大化某个函数f(x)的任务。我们把最大化或者最小化的函数叫做目标函数(objection function)我们对其进行最小化时,也把它称为代价函数(cost function)或损失函数(loss function)或误差函数(error function)

梯度下降法分类
1. 批量梯度下降法 :
批量梯度下降法(Batch Gradient Descent,简称BGD)是梯度下降法最原始的形式,它的具体思路是在更新每一参数时都使用所有的样本来进行更新。
2. 随机梯度下降法:
由于批量梯度下降法在更新每一个参数时,都需要所有的训练样本,所以训练过程会随着样本数量的加大而变得异常的缓慢。随机梯度下降法(Stochastic Gradient Descent,简称SGD)正是为了解决批量梯度下降法这一弊端而提出的。
3. 小批量梯度下降法:
有上述的两种梯度下降法可以看出,其各自均有优缺点,那么能不能在两种方法的性能之间取得一个折衷呢?即,算法的训练过程比较快,而且也要保证最终参数训练的准确率,而这正是小批量梯度下降法(Mini-batch Gradient Descent,简称MBGD)的初衷。
如果想更加深入了解有关这三种梯度下降法可以参考这位作者的一篇博客

其实梯度下降法很简单理解,就是如果知道一个初始值$ x_0 , 我 们 从 现 在 开 始 就 不 停 地 把 这 个 初 始 值 优 化 为 函 数 的 最 小 值 ( ,我们从现在开始就不停地把这个初始值优化为函数的最小值( ( a_k $表示学习率)
如果想更加深入了解有关梯度下降算法可以参考这位作者的一篇博客

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
基于梯度下降法的多元线性回归是一种用于求解多个特征变量的线性回归问题的算法。在多元线性回归中,我们构建一个代价函数,目标是找到使得代价函数最小的一系列参数。梯度下降算法通过迭代的方式,不断调整参数的值,使得代价函数逐渐减小,最终找到最优的参数值。 具体而言,梯度下降算法通过计算代价函数对参数的偏导数来确定参数的更新方向。在每一次迭代中,根据当前参数的值和偏导数的值,更新参数的值,使得代价函数逐渐减小。这个过程会一直进行,直到达到预定的停止条件。 在多元线性回归中,我们可以使用批量梯度下降算法来求解代价函数的最小值。批量梯度下降算法通过计算所有样本的梯度来更新参数的值,因此每一次迭代都需要遍历整个训练集。这种算法的优点是可以找到全局最优解,但计算量较大。 总结来说,基于梯度下降法的多元线性回归是一种通过迭代调整参数值的算法,用于求解多个特征变量的线性回归问题。它可以通过计算代价函数的偏导数来确定参数的更新方向,并通过不断迭代来逐渐减小代价函数的值,最终找到最优的参数值。 #### 引用[.reference_title] - *1* *2* *3* [机器学习-线性回归-多元梯度下降法](https://blog.csdn.net/kingsure001/article/details/107465231)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值