目录
多维特征
跟之前相比我们不再只是两个特征,而是多个特征来进行影响。
特征
特征数量
第i个训练特征
原先的模型:
多个特征后:
向量化
向量化的含义:
参数和特征:
没有矢量化:
f = 0
for j in range(0,n):
f = f + w[j] * x[j]
f = f + b
矢量化:
f = np.dot(w,x) + b
用于多元线性回归的梯度下降法
先前的符号 | 现在的符号 | |
参数 | ||
模型 | ||
代价函数 | ||
梯度下降 | | |
用于多元线性回归的梯度下降法 | | |
特征缩放
示例说明:
s
平均归一化(mean normalization)
μ是指x的平均值
标准差归一化(Z-score normalization)
μ是指x的平均值,
是指x的方差
判断梯度下降是否收敛
x轴是梯度下降算法的迭代次数,y轴是成本函数J的值;梯度下降算法目的假设找到一组w和b,让成本函数J最小;学习曲线可以帮助我们查看成本函数J如何变化,当算法正常运行时,成本函数J在每次迭代后都会减少,当其在一次迭代后增加了,那就说明学习率α选的有点大,或者代码有问题;当学习曲线平坦时,梯度下降算法收敛。
如何设置学习率
学习率的选择一般是先大后小,先大可以让成本函数尽快的往成本小的方向下降,等快到了底部,学习率就要慢慢的减小,防止跳出底部。所以最好是选择先比较大,然后慢慢缩减变小。
特征工程
Feature engineering: Using intuition to design new features,by transforming or combining original features.
特征工程:通过转换或组合原始特征,利用知识或直觉设计新特征。通常通过变换或组合原始特征问题以使学习算法更容易,做出准确的预测。
多项式回归
以多元线性回归和特征工程的思想来想出一种称为多项式回归的新算法。
我们在使用线性回归的时候总是假设数据背后是存在线性关系的,实际中这种情况还是比较少的,较多的还是非线性关系,多项式回归法正是解决数据之间非线性关系进行预测的机器学习算法,本质还是线性回归,只是增加了样本的特征
多项式回归:相当于为样本添加了一些特征,这些特征是原来样本的多项式项,增加了这些特征之后,我们可以使用线性回归的思路更好的拟合我们的数据。