参考的视频教程:吴恩达机器学习网易云课堂视频课地址
一、模型描述
这里最急需理解的就是模型描述是什么意思,我自己的理解就是根据实际的问题,把那些比较具体的比如房价预测,股票预测等等问题给数学化,抽象成数学公式的过程,就是问题的建模,那么把这个数学公式给展开,写出来就是对该模型的描述:
在吴恩达的机器学习课程里,用房价预测做比喻:
所以我们根据实际的数据分布情况,这里当然是很简单的线性的,就采取了线性模型来表征。
还需要说的几个点:
- 监督学习指的是知道正确答案的情况,也就是给的训练数据中,这些(房子面积,房价)这样的对应关系我们是知道的,要利用这些知道的数据来训练出一个普世的通用的具有一般性的函数,来对新的单一数据输入(比如知道面积预测价格,或者知道价格预测房子大小这些),我个人觉得监督学习就好比有老师指导的学习,在老师的监督下(因为老师知道正确的答案),这样训练出的我们才能将考题做对。
- 回归问题指的是我们通过预测出的函数,获得的结果是具体的数值;
- 分类问题指的我们最后获得的结果是离散的值,不同的值代表不同的种类;
二、代价函数
代价函数和我SLAM方向里面的重投影误差形式很像,如上,就是我们预测出来的函数值减去真实的值要求误差最小,也就是这里的代价最小!
所以叫代价函数!
那么代价函数的作用:就很显而易见了,就是用来衡量我们之前针对具体问题找到的数学模型的好坏成都的,如果代价函数的结果非常小(当然越接近0说明我们提出的模型就越好越能说明问题!这里是这个博客给了我启发!模型好坏的判断
而且最需要明白的是代价函数是关于theta的,而假设函数是关于x的,我们的目的就是通过最小化代价函数,获取此时的θ,从而完成假设函数的获取!
三、梯度下降
这里也是我个人的理解吧,梯度下降其实就是一种方法,就是结合上面的代价函数,用这种方法,一步步的使得代价函数越来越小,当最小的时候我们确定假设函数的参数,这是我们的模型就确定了,就能较好的去拟合实际的问题了!
就是下面这张图片的意思:
梯度下降的动机这里就是针对我们的额参数,比如θ,我们每下降一次梯度,θ的值就更新一次,最后趋近于某个具体的值之后下降不动了,可以先拿视频课里低纬的来理解,之后高纬的也就好理解了!
四、 总结
上面提到的模型表示、 代价函数以及梯度下降也就是我们俗称的机器学习的三板斧~是一个完整机器学习算法中不可获取的三个部分!
————————————————————————————————
最后防止最近忘记贴一下最近尝试打比赛的一些连接: