机器学习第一回——初识监督学习和无监督学习

一.监督学习(supervised learning)

给定一个含有“正确答案”的数据集,根据样本数据做出预测。

1.回归问题(推测出一个连续值的结果)

例:预测房价
在这里插入图片描述

2.分类问题(推测出离散的输出值)

例:估算肿瘤是恶性还是良性
在这里插入图片描述

二.无监督学习( Unsupervised Learning)

给定一个无标签的数据集,从数据中找到某种结构。
例:基因学应用,社交网络分析,市场分割。

三.回归问题

单变量线性回归

1.模型表示

上图为训练集

𝑚 代表训练集中实例的数量
𝑥 代表特征/输入变量
𝑦 代表目标变量/输出变量
(𝑥, 𝑦) 代表训练集中的实例
(𝑥(𝑖), 𝑦(𝑖)) 代表第𝑖 个观察实例
ℎ 代表学习算法的解决方案或函数也称为假设(hypothesis)
一种可能的表达方式为:ℎ𝜃(𝑥) = 𝜃0 + 𝜃1𝑥,因为只含有一个特征/输入变量,因此这样
的问题叫作单变量线性回归问题。

2.代价函数


目的:为模型寻找合适的参数θ1和θ0,选择出可以使得建模误差的平方和能够最小的模型参数。 即使得代价
函数 𝐽(𝜃0, 𝜃1) = 12𝑚 ∑ (ℎ𝜃(𝑥(𝑖)) − 𝑦(𝑖)) 𝑚 2 𝑖=1 最小。
建模误差:预测值与实际值的差距。

⑴ θ0=0

在这里插入图片描述

⑵ θ0≠0

代价函数图像
代价函数对应的等高图

3.梯度下降

梯度下降是一个用来求函数最小值的算法,我们将使用梯度下降算法来求出代价函数 𝐽(𝜃0, 𝜃1) 的最小值。
批量梯度下降(batch gradient descent)算法的公式为:在这里插入图片描述
其中𝑎是学习率(learning rate),它决定了我们沿着能让代价函数下降程度最大的方向向下迈出的步子有多大。α太小导致接近最低点的速度很慢,α太大有可能会错过最低点。
注意:θ1和θ0要同步更新,即:
在这里插入图片描述

线性回归算法(用梯度下降算法最小化线性回归代价函数)

在这里插入图片描述
在这里插入图片描述
这里的代价函数是一个凹函数,只有一个全局最优解,没有局部最优解。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值