2.4 吴恩达《神经网络与深度学习》——梯度下降法

本文介绍了在神经网络与深度学习中,如何使用梯度下降法来训练模型参数。通过理解成本函数和梯度下降的概念,阐述了在logistic回归中,如何初始化参数并进行迭代更新,以找到成本函数的全局最小值。文章还讨论了学习率、导数以及在多变量情况下的偏导数,并强调了直观理解导数对于有效使用神经网络的重要性。
摘要由CSDN通过智能技术生成

【上节回顾】在上一讲里,我们学习了logistic回归模型,也知道了损失函数。损失函数,是衡量单一训练样例的效果。你还知道了成本函数,成本函数用于衡量参数w和b的效果,在全部训练集上来衡量。

下面我们讨论如何使用梯度下降法,来训练或学习训练集上的参数w和b。

回顾一下,这里是熟悉的logistic回归算法。第二行是成本函数J,成本函数J是参数w和b的函数,它被定义为平均值,即1/m的损失函数之和。损失函数可以衡量你的算法的效果。每一个训练样例,都输出y^(i),把它和与基本真值标签y^(i)进行比较,等号右边展开完整的公式。成本函数衡量了,参数w和b在训练集上的效果。

要习得合适的参数w和b,很自然地就想到,我们想找到使得成本函数J(w,b)尽可能小的w和b。

下面来看看梯度下降法:

这个图中的横轴,表示空间参数w和b。在实践中,w可以是更高维的。

但为了方便绘图,我们让w是一个实数,b也是一个实数,成本函数J(w,b)是在水平轴w和b上的曲面,曲面的高度表示了,J(w,b)在某一点的值。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值