单变量线性回归_吴恩达_机器学习笔记
1、模型描述
定义: 预测数值是回归类问题,预测离散变量是分类问题
本视频中的常用符号定义
m : 样本数量,代表着每一行的数量
x : 输入变量
y : 输出变量
表示一个数据集的输入变量和输出变量,这是我晚上画的一个图,可以大概理解本章要说的主要内容。
- 在这个图中,我们也需要注意到,实际上,假设函数,就是我们通常所说的模型。
那么其实回归类问题也是有非常多的模型可以适用的,并不是只有单一的线性回归,对于非线性类问题,还可以通过支持向量机、决策树等等模型做回归类问题。这是初学者应该注意的一个问题。 - 而损失函数,也就是代价函数,都是同一个东西,那么除了梯度下降法,是否还有其他优化类算法呢?初学者建议先不急着去看凸优化类算法文章,除非非常有时间。建议先对梯度下降法这个最简单的算法进行彻底的掌握。实际上,吴恩达在阐述梯度下降法的时候,基本上也表明了,上到百万的数据样本,梯度下降法通常仍然能够很好的求解最优化问题。
- 如果你慢慢掌握了梯度下降,那么牛顿法和拟牛顿法,也是可以开始接触的,我建议看了李航老师的附录相关介绍以后,去相关的博客具体看,牛顿法和拟牛顿法的代码实现,这样,可能才能对这两个更加复杂的算法有一定的理解(其实发明这两个算法的人都是几百年的,唉!我居然没有进化脑子)!