机器学习(第1,2章)

监督学习

监督学习的样本集是既有特征也有结果的数据,即已知输入与输出值。数据集中包含正确答案。
1、回归问题(Regression problem):预测出连续的输出值。
例如:关于房子出售价格的数据集(房屋面积,房价)。数据集中已有房子售卖的正确价格,算法的目的是给出更多正确答案(预测的作用)
2、分类
输出结果是离散值

无监督学习

无监督学习的数据集有输入值但是没有输出值,目标是找到数据集的底层结构,根据相似性对数据进行分类,并以压缩的格式表示数据集。(聚类算法)

代价函数

1、定义:
找到最优解的目的函数
2、原理:
最常用的是平方误差代价函数

在这里插入图片描述
用平方误差代价函数来找到最优解。其主要思想是奖实际真实值与我们拟合出的线的对应值做差。代价函数
前面有乘1/2是为了后来求导产生的2消掉方便计算,而最优解即为代价函数的最小值。
多维情况下求偏导

梯度下降法

梯度下降法是一种较为常用的求最优参数的方法之一。
1、算法思想
从参数的某个值开始,保持该值持续减小,如果是一组值要保持同步更新,直到找到最小值
过程就像是下山,边走边看边找最近的距离,选择梯度最大的路径。
在这里插入图片描述
线性回归的代价函数都是凸函数
线性回归的代价函数是凸函数
2、更新规则
在这里插入图片描述
α是学习率,类似于下山的步伐的大小。
由公式可知,这是借助偏导数使越接近最低点的时候收敛速度越慢。当收敛于最低点时,偏导数为0,就会停止更新,也就找到了最优解。
3、同步更新
正确:
在这里插入图片描述
错误:
在这里插入图片描述

线性回归的梯度下降

代价函数:
在这里插入图片描述
线性回归方程:
在这里插入图片描述
使用梯度下降法经过计算之后得到的偏导数为:
在这里插入图片描述
所以更新规则为:
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值