[ML笔记]模型表示与代价函数

引导

线性回归属于监督学习,因此方法和监督学习应该是一样的,先给定一个训练集,根据这个训练集学习出一个线性函数,然后测试这个函数训练的好不好(即此函数是否足够拟合训练集数据),挑选出最好的最好那个训练函数(代价函数)即可。

模型表示

表示含义
x(i) 输入变量
y(i) 输出变量
( x(i),y(i) )一个训练实例
( x(i),y(i);i=1,.....m 一个训练集
m训练集个数

假设函数(hypothesis)指从训练集得到一个较好的预测x->y的函数。

单变量线性回归

单变量线性回归是指只有一个变量x。线性回归的函数为线性函数,即直线函数;
单变量线性回归模型
hθ(x)=θ0+θ1x
我们将 x 称为feature,hθ(x)称为hypothesis,假设函数。

代价函数

通过代价函数,我们可以计算得到最优解的hypothesis函数。
代价函数公式
J( θ0,θ1)=12mm1(iyi)2=12mm1(hθ(xi)yi)2
h(x)即为假设函数,y假设为真实函数,m为训练集个数

每个训练集与输出变量的差方的和越趋近于0,则假设函数和真实函数越相近。因此代价函数的最优解在于计算代价函数最小值。

先从简单的来看,假设hypothesis函数为:
hθ(x)=θ1x
函数图为:
假设函数图
图中红色的X代表样本真实数据

假设 θ1=1 ,我们通过代价函数公式,可以计算得出:
123((11)2+(22)2+(33)2)=0
假设 θ1=0.5 ,我们通过代价函数公式,可以计算得出:
123((10.5)2+(21)2+(31.5)2)0.58
假设 θ1=0 ,则可以计算得出:
123((10)2+(20)2+(30)2)2.33
。。。。。

根据数据集,我们可以基本绘制出代价函数图形如下:
代价函数图形
因此,代价函数在 θ1=1 的时候是最优解(最小值)。

代价函数进阶

如果参数更为复杂时 ,比如 θ0θ1 时,轮廓图就是一个三维图像,轮廓图可能如下,我们还是可以找到代价函数的最小值。
凸函数轮廓图
轮廓图如果用二维图表示,则如下图中右图所示,在一条等高线上 J(θ0θ1) 相同。
等高线轮廓图

声明

图侵删。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值