机器学习--第二章(代价函数、梯度下降)

单变量线性回归:
所谓的单边量就是指只有一个输入变量(特征变量)
所谓的线性是指变量的次数为1次
所谓的回归是指预测的输出是连续的

m–代表样本的数量
x --代表输入变量(输入特征)
y --代表输出变量(预测的目标变量)
(x,y)表示一个训练样本
训练集—》学习算法–》输出函数h(假设函数,预测函数)
目的是为了得到模型的参数: θ \theta θ ,让假设函数来尽量与数据点进行很好的拟合。

如何得到参数 θ \theta θ
我们要得到使得输入X时我们的预测值,要最接近该样本的y值的参数 θ \theta θ

平方误差代价函数:对于回归问题是比较好的选择,

在这里插入图片描述

1、线性回归的几个重点,假设函数,代价函数,目标函数;
在这里插入图片描述

如下图左边为数据集在平面上的分布,通过假设函数进行拟合,假设函数的自变量是输入特征X
右边为代价函数的在坐标轴下的图像,其自变量是参数 θ \theta θ,

通过选定了参数 θ \theta θ,会得到一个假设函数来拟合数据集中的点,通过代价函数来描述拟合的程度(就是拟合的好坏)。为了拟合的较好,反着推,就是要对代价函数进行最小化(就是是目标函数最小化J( θ \theta θ)),然后得到在右图中得到较好的参数 θ \theta θ,带入到左图中得到假设函数去对数据集进行拟合。

在这里插入图片描述

单标量线性回归假设函数以及代价函数图(右边的代价函数为等高线图,就是没条线上的代价函数值相等)。
在这里插入图片描述

由于线性回归的代价函数是一个凸函数,所以不管从哪里初始化都能够等到全局最优解,
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值