吴大佬的网课单变量线性回归1.0

一.基础模型
这里写图片描述
说明一下:首先我们有一个数据集即Training-Set,通过一定的算法(learningAlgorithm),我们得到了恰当的函数(假设,h),然后再输入我们需要预测的数据,函数(h)就能给出预测的结果了。
二.假设函数和代价函数
在机器学习中,我们的目的是为了找出与数据集拟合最好的函数曲线(h),我们开始会通过观察,假设出一个假设函数,然后再通过对应的代价函数找到真正的h。
假设函数:开始我们假设的函数。例如f(x)=Θx.(假设函数对应的函数曲线不一定和训练集拟合的很好,主要是确认目标函数h的形式)
代价函数:确定好假设函数后,由于参数选择的随意性,假设函数与训练集的拟合很大可能上会很差,所以需要代价函数来修改假设函数中的参数。(即使代价函数的值最小化)
举个栗子:
这里写图片描述
图中需要我们确定的参数是 Θ0和 Θ1,hypothesis是假设函数,cost Function是目标函数(本例中其实就是最小二乘法),我们的目标就是要让cost function最小
代价函数的函数图像
再本例中其实就是找“碗底”,如果将其换为等高线,则是寻找椭圆中心点对应参数。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值