![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
xierongz
这个作者很懒,什么都没留下…
展开
-
机器学习笔记--吴恩达机器学习课程2 - 4
代价函数最小化方法之梯度下降法 对于线性回归的代价函数 梯度下降法对代价函数的每一个参数求偏导,梯度下降法的梯度是一个向量,向量的每一项代表的都是对应的代价函数的一个参数的偏导数,是一个整体,故梯度下降时必须同时对代价函数的每个参量的偏导数做下降,而不能分别做下降。 eg: 对于上式,梯度下降法: 其中:=是赋值的意思,对参量1和参量2同时做更新。原创 2018-01-15 22:01:02 · 274 阅读 · 0 评论 -
机器学习笔记--吴恩达机器学习课程2 - 3
1.目标函数:关于输入x和期望y的最佳拟合函数 2.代价函数:对于同一输入x,反映拟合函数G(x)输出Y与理想期望y之间的差距的集合即为代价函数,故代价越大,拟合效果越差。(说的有点不太准确) 常用的代价函数有平方差代价函数、交叉熵代价函数等。 eg: 对于一元函数 有平方差代价函数 对于目标函数来说,代价函数的值越小,目标函数的解越优。原创 2018-01-15 21:54:53 · 171 阅读 · 0 评论 -
机器学习笔记--吴恩达机器学习课程2 - 6
梯度下降法 对于梯度下降法而言,当偏导数 的学习效率过大或过小时,收敛的速率会变得很缓慢,α过大时甚至会无法收敛。学习效率α是一个正数。 同样梯度下降法初始点在局部最低点时同样不会再更新,此时偏导数的值为0.原创 2018-01-16 19:01:49 · 155 阅读 · 0 评论