机器学习_1.2 (线性回归之代价函数)

线性回归

接上一篇的监督学习我们继续深入讨论监督学习中所包含的算法。
给个传送门:机器学习_1.1
言归正传,线性回归问题应该都有基础,用我们所学的简单方程进行运算获得一个函数h(x)用这个函数我们可以很好的对离散型的训练数据进行拟合,这就是机器学习中所谓的线性回归,这篇博客中我们会先从最简单的拟合开始并且逐步深入。

假设函数

中学都学过一次函数,我们假设函数其实也是同理,我们有h(x) = θ2+θ1*x(x为变量),是我们需要输入对象,h(x)便是一个期望输出,重点便是这个θ1和θ2值的确定。
要讨论上述连个不定值我们引入代价函数(cost function)

代价函数(cost function)

又称损失函数,一个优化问题试图最小化损失函数。这里你可以理解成我们确立这两个不定值之后我们相对于其他的训练内容所付出的损失最小,也就是我们通过这个我们确立好的假设函数所得出的结果偏差最小。

我们给出代价函数的原型:
在这里插入图片描述
我们的目标是得到代价函数的最小值,就算我们成功的拟合出了这个事件。

接下来我们逐步进行讨论

  1. θ2 = 0
    开始我们先不讨论变量 θ2 的值,来个Eg:
    在这里插入图片描述
    假设θ1 = 1我们有如上的情况,在代价函数的坐标图中我们可以找到对应的点(1,0)。
    在这里插入图片描述
    接着我们假设θ1 = 0.5,J(0.5) = 0.58…假设θ1 = 0,J(0) = 2.3……
    如此我们可以获得代价函数的坐标原型:
    在这里插入图片描述
    一目了然,取最小值(1,0),便完成了我们的拟合。
  2. 附带θ2的讨论
    由于是相同复杂而且重复的工作,我们直接给出讨论的结果:
    在这里插入图片描述
    函数图像如图所示,是一个处于三维空间的图形,在以后的学习中,我们会使用等高线来代替三维图形。
    在这里插入图片描述
    横纵分别是θ1和θ2,每一圈代表一个相同的代价函数。
    接下来我们只要通过程序或者软件来获取到最小的代价即可,至此线性回归代价函数入门讨论结束,下篇见…
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值