本文重点
相信现在大家都对假设函数和损失函数之间的关系了解了,我们现在的任务是找到损失函数的最小值,我们可以使用梯度下降的算法来找到损失函数的最小值。
什么是梯度下降算法?
梯度下降算法是一种常见的优化算法,用于在机器学习和深度学习中最小化损失函数。其基本思想是通过迭代的方式,不断地调整模型参数,使得损失函数的值不断减小,最终达到最优解。
梯度下降算法的核心是梯度,梯度是一个向量,它指向函数值增长最快的方向。在机器学习和深度学习中,我们通常使用梯度下降算法来最小化损失函数,因为损失函数的梯度指向了使得损失函数值减小最快的方向。
简单来说是这样的,我们先随机初始化一个参数(θ0,θ1,…,θn),然后我们一点点改变(θ0,θ1,…,θn),试图通过这种改变使得J (θ0,θ1,…,θn)逐渐变小,经过多轮迭代达到损失J (θ0,θ1,…,θn)的最小化。
下山的例子
讲解了一个经典的下山的例子来试图帮助大家更深入的来了解梯度下降到底是什么?
我们呢讲损失函数可视化,看起来像一个凹凸不平的小山,假设我们现在在山上那个蓝点的地方,这个表示我们随机选中的一点(θ0和θ1),此时我们环顾四周看哪个方向下山的话能够更快,找到这个方向之后我们向着这个方向走了一小步,然后再环顾360°,找到最快下山方向之后,再走一小步,以此类推,最终我们可以走到一个局部的最