![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
大脑袋剑客_
大脑袋剑客_
展开
-
监督学习和非监督学习
机器学习的定义 A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves with experi原创 2017-08-02 23:17:51 · 740 阅读 · 0 评论 -
代价函数 cost function
代价函数在监督学习的回归问题中,代价函数就是用于找到最优解的目的函数,反应了预测函数的准确性。代价函数的值越小,说明在回归问题的中,计算机程序对数据拟合的越好。也就是假设函数越正确。比如,对于这个假设函数(可以看成是求房价的假设函数): 代价函数是: 也就是 预测值与真实值的差的平方和,再除以2m(2倍样本数量)。在假设函数中:θ0和θ1两个参数,不同的参数会有不同的假设函数 如下图原创 2017-08-03 00:42:16 · 2734 阅读 · 0 评论 -
梯度下降算法
Gradient descent for linear regression梯度下降的目的: 在监督学习的线性回归问题中,我们要在大量的数据中去拟合一条曲线,得到一个预测函数,来预测下一次的值。 那么怎么得到这个预测函数呢?我们通过不断改变假设函数中的每个参数,直到代价函数的值最小的时候,假设函数中的参数就足够“完美”了,这个时候的假设函数也就能比较准确的预测下一次的值,也就称它为预测函数原创 2017-08-03 02:22:25 · 890 阅读 · 0 评论 -
梯度下降之特征缩放与学习速率
Featrue Scaling and Learning Rate of Gradient Descent特征缩放featrue scaling 特征缩放是用来标准化数据特征的范围。为什么要特征缩放这个是两个参数的代价函数轮廓图,中间的那个点是最低点,是目标点。在多特征的梯度下降中如果其中一个或者和几个特征的取值范围特别大,而有些特征的取值范围特别小,那么这些变化范围大的特征向量的参数就会变化原创 2017-08-03 10:37:27 · 1080 阅读 · 0 评论