单变量线性回归

线性回归

线性回归是解决回归问题最基本的一个方法。其实质就是找到一条直线能尽可能多的使已知的离散值分布在其周围(二维坐标系中)

就像这样:

二维线性回归示例

或者是在三维坐标中,找到一个面来逼近

三维线性回归示例

在这里我们只讨论最简单的单变量线性回归

单变量线性回归

单变量线性回归问题只含有一个特征(输入变量),因此可以把目标直线表达式写为:

h(x) = y = wx + b

其中, x代表特征/输入变量,h代表目标变量/输出变量

我们需要有一个包含许多对(x, y)的训练集,之后把它喂给我们的学习算法,学习算法输出一个函数,通常表示为小写h表示,代表hypothesis(假设),表示一个函数

因此h根据输入的x值来得出y值,y值就是我们想要根据x知道的答案。因此,h是一个从yx的函数映射。

代价函数

又称为“损失函数”

在前面的函数h中,我们选择的参数决定了我们得到的直线相对于我们的训练集的准确程度

模型所预测的值与训练集中实际值之间的差距(下图中蓝线所指)就是建模误差(modeling error)

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-otb1ucKX-1578400768545)(https://i.loli.net/2020/01/07/GrVK31eEIn27F8m.png)]

我们的目标便是选择出可以使得建模误差的平方和能够最小的模型参数。 即使得代价函数最小

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-YSqacmgb-1578400768546)(https://i.loli.net/2020/01/07/7YXiowZe86JKIvO.png)]

这个代价函数可以根据最小二乘法得到

我们绘制一个等高线图,三个坐标分别w (图中theta0)h (图中theta1)和代价函数(图中J(theta0, theta1))

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-bvt8a2B6-1578400768548)(https://i.loli.net/2020/01/07/9AQF2NjPB8s47CE.png)]

代价函数也被称作平方误差函数,有时也被称为平方误差代价函数。我们之所以要求出误差的平方和,是因为误差平方代价函数,对于大多数问题,特别是回归问题,都是一个合理的选择。还有其他的代价函数也能很好地发挥作用,但是平方误差代价函数可能是解决回归问题最常用的手段了。


参考资料:
吴恩达《机器学习》课程笔记**

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值