吴恩达机器学习Day2

该博客介绍了吴恩达机器学习课程中的梯度下降法,包括最小化代价函数、学习率的影响、正确更新参数w和b的方法,以及在局部最小点时的性质。还讨论了成本函数的凸性和多元线性回归,强调了向量化的应用在算法中的重要性。同时,对比了方程法和梯度下降法在效率和推广性上的区别。
摘要由CSDN通过智能技术生成

1.梯度下降:

最小化代价函数;

这个表达式的意思是通过获取w的当前值并对它进行少量调整来更新参数w;

α:学习率,通常是0-1之间的一个小正数,基本上控制你下坡时的步幅。

代价函数的导数项,决定下坡的方向;

重复这两个式子,直到收敛(达到了一个局部最小值,在这个最小值下,参数w和b不再随着你采取的每一个额外步骤而改变很多)。

w和b要求同时更新的情况:

w和b没有同时更新(非正确方法):

学习率α:

过小:下降速度缓慢,

过大:可能会发散。

在局部最小点时,偏导数=0,此时w也不会再变化;

代价函数化简过程。

若成本函数是凸函数,只有一个全球最小点。

多类特征:

多元线性回归:

向量化的技巧(多个特征值得和可以看成行向量)。

代码具体实现:

F=np.dot(w,x)+b;(NumPy dot 函数)

算法矢量化是非常重要的一个想法;

N个特征的梯度下降:

方程法(求解w和b)(这个没有过多解释):

缺点:不像梯度下降那样有强大的推广性,并不能推广到其他学习算法;方程法比较慢。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值