【机器学习】代价函数

代价函数(Cost Function/Squared Error Function)


为什么要求代价函数?
当我们做线性回归时,不可避免的会产生一些误差,当我们预测出来的结果和真实的结果的直线越贴和就代表代价函数最小。
Hypothesis(假设):这里写图片描述

对于这个公式的代价函数就是:
Cost Function(Squared Error Function):这里写图片描述
hθ(xi)就是我们对一条记录的预测值,y(i)就是一条记录的真实值,m为一共多少条记录。
其实就是对Hypothesis的最小值求解:min(J(θ0,θ1))

简单推导,我们让θ0=0
当θ1=1:
这时候Hypothesis和J(θ0,θ1)完美拟合
这时候Hypothesis和J(θ0,θ1)完美拟合,而我们的J(θ1)就是J(1):
这里写图片描述

同理可以得到当θ1=0.5时:
这里写图片描述
图中红色的叉的位置是完美拟合的位置,黑色直线是θ1=0.5时的线的位置,红色的直线是当X等于不同的值时,Y的代价函数,由图可见当我们的X不断增大时,代价函数的值也会越来越大。
这个时候我们的Hypothesis,J(0.5)就是:
这里写图片描述
而我们当当θ1=0时:
这里写图片描述
(这里的线其实是与X轴重叠,因为黑色不明显,所以我换了个颜色)

得到我们的Hypothesis,J(0)就是:
这里写图片描述

同理可得J(1.5)=0.58,J(2)=2.3。
由以上结果可以得到一系列的有关于J(θ1)的点:
这里写图片描述
经过上面的5个点的值可以得到类似于图中的一条曲线,从图中可以看出J(1)是最拟合的点,也就是整个曲线的波谷,反向可以证明其实对于代价函数公式来讲,就是在求(h(xi)-y(i))的最小值。

这也就对于开始的问题作了一个解答,为什么要求代价函数?

根据视频的个人理解,不知道可以解释清楚这个问题不。

  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值