机器学习笔记-standford公开课课程学习笔记

本文探讨了回归问题与分类问题在监督学习中的区别,解释了它们的输出变量类型。分类问题关注定性输出,而回归问题关注定量输出。接着,文章介绍了线性回归,讲解了梯度下降法的三种形式:批量、随机和小批量。最后提到了局部加权回归以及非参数学习与参数学习算法的区别。
摘要由CSDN通过智能技术生成

一、回归问题(regression)与分类问题(classification)的区别

二者都属于监督式学习,回归问题和分类问题的本质一样,都是针对一个输入做出一个输出预测,其区别在于输出变量的类型。

分类问题是指,给定一个输入,根据训练集推断它所对应的类别,是一种定性输出,也叫离散变量预测;通常是用来预测一个值,如预测房价、未来的天气情况等。

回归问题是指,给定一个输入,根据训练集推断它所对应的输出值,是一种定量输出,也叫连续变量预测;分类问题是用于将事物打上一个标签,通常结果为离散值。

二、线性回归:设有n个特征变量x1,x2...,m个样本数据

(这里的y是训练样本中的对应目标变量的取值,我们要确定θi的值,使得J(θ)的值最小

具体求解:

①梯度下降法(gradient descent)找局部最优;因为J(θ)函数是一个碗形结构,只有一个局部最小值,故局部最优就是整体最优

θj(j=0,1...n),给定一个初始值,然后不断迭代,只到取得局部最小,这里的α 是学习速度(梯度下降的步长)

批量梯度下降:在更新参数时使用所有的样本来进行更新,样本量大时,训练速度很慢


随机梯度下降:在更新参数时只使用一个样本来进行更新,训练的准确性不高,最终结果一般是接近全局最小值,收敛速度较慢,但是训练速度快

二者的折中:小批量梯度下降法-在更新参数时使用部分样本来进行更新

三、局部加权回归Locally weighted linear regression,要预测x对应的y值时,只考虑x周围的样本数据,并使用线性回归算法,数据量过大时效率不高,因为权重的问题,他是用的模型不是固定的,每次预测都要重新拟合;权重:其中分母中的符合是波长函数,控制权重下降的速度


具体的求解θj(j=0,1...n)的算法上面已经讲过的,这里最小值的计算式子稍有变化


最后补充:非参数学习算法vs参数学习算法:参数的选择随着训练数据的变化而变化;参数固定

参考: http://open.163.com/special/opencourse/machinelearning.html 


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值