机器学习 多项式回归学习笔记
我又来了,上一篇我们讲到单变量线性回归,这次我准备就单变量的基础上深入到多变量回归再到多项式回归和一些特征优化技巧吧,也就是由一个自变量到N个自变量的变化,上次我们用到的是预测房屋价格的例子,这次也是一样吧,在实际生活中,房屋价格不可能是仅由房屋面积决定的,还有楼层高度,地理位置,房屋朝向等等,这些都是影响房屋价格的实际因素,这些特征向量对我们需要预测的影响程度也是不同的,这里引入一个权重的概念,听说带权重的回归算法可以得到更好的预测模型,反正我还没搞懂怎么用,先放着吧,其实我看那些机器学习书籍一堆的专业术语,看的头都是大的,很想用自己的理解去直白的表达出机器学习各个算法的原理,但是感觉火候不够,只有将就着先这样了,希望以后会越来越好吧,BB了一堆,下面步入正题:
代价函数
多变量回归在定义代价函数上跟单变量的方法差不多,不过参数多了而已
我们假设有N个特征向量,想要去预测房屋价格,先来个假设函数h(x)=θ0+θ1x1+...+θnxn;这里我们假设x0=1
简单点写就是h(x)=θT(x),这里的T代表矩阵转置,要是对矩阵不清楚的也没关系,记住就行,最好还是去看看简单的矩阵性质和变化,我也在苦逼的狂补ing。接下来得出我们的代价函数j(θ):