机器学习笔记day1——代价函数

跟着吴恩达老师学习机器学习的 第一天,呜呜呜呜呜,我好菜,加油加油!!!

定义

A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves with experience E.
简单来说就是在经验学习中改善具体算法的性能。
在这里插入图片描述

分类

  • 监督学习
  • 无监督学习

监督学习

监督学习即算法预测(如房价预测、肿瘤分析),常见的算法包括回归分析(regression,预测一个连续值输出)和统计分类(classification,预测离散值输出)。
在这里插入图片描述

无监督学习

给定的数据集没有标签、分类,要求从数据集中找出数据的类型结构。
在这里插入图片描述

单变量线性回归

数据集即训练集。m表示训练样本的数量,x表示输入变量即输入特征,y表示目标变量。

代价函数

对于回归问题,我们需要求出代价函数来求解最优解,常用的是平方误差代价函数
假设函数
现实的例子中,数据会以很多点的形式给我们,我们想要解决回归问题,就需要将这些点拟合成一条直线,找到最优的 θ0 和 θ1 来使这条直线更能代表所有数据。
如何找到最优解呢,就需要使用代价函数来求解了,以平方误差代价函数为例,最优解即为代价函数的最小值
平方误差代价函数的主要思想就是将实际数据给出的值与我们拟合出的线的对应值做,求出我们拟合出的直线与实际的差距。
为了使这个值不受个别极端数据影响而产生巨大波动,采用类似方差再取二分之一的方式来减小个别数据的影响。这样,就产生了代价函数在这里插入图片描述
最优解即为代价函数的最小值:优化目标
注意:假设函数hθ(x)是关于x的函数,代价函数J(θ0,θ1)是关于θ0、θ1的函数。
θ1=1,θ0=0时的假设函数和代价函数

θ1=0.5,θ0=0时的假设函数和代价函数
θ1=0,θ0=0时的假设函数和代价函数

最终的代价函数图像
所以在上述的假设函数中,最优解应该是θ1=1,注意此时是只考虑了θ1没有考虑θ0,所以代价函数的图形为平面图形。
接下来探究关于θ0、θ1的代价函数:
θ1=-0.15,θ0=800时的假设函数和代价函数
θ1=0,θ0=360

关于θ0、θ1的代价函数
如果更多参数的话,就会更为复杂,两个参数的时候就已经是三维图像。高度即为代价函数的值,可以看到它仍然有着最小值的,而到达更多的参数的时候就无法像这样可视化了,但是原理都是相似的。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值