这是机器学习的第一章第三节:Gradient descent for Multiple variables(多变量的梯度下降法)
在学习本节过程中,将会涉及到高等数学中矩阵的相关知识
通过这一节的学习将会了解:
一、第一节中函数1.1.1,函数1.1.2和第二节中公式1.2.1在多个自变量\(x\)与多个parameter \(\theta_i\)的情况下的具体计算方法;
二、Feature Scaling(特征缩放) 和 Mean normalization(均值归一化) 的相关使用知识。
一、首先解释\(x_j^{(i)},y_j^{(i)},\theta_j\)(此时我们不再使用\(x_i,y_i\),因为这时将会出现歧义)角标的含义,我们将其称为索引(index)。
我们还记得\(x\)表示的是自变量特征(features),那么:
superscript \((i)\)相当于第\(i\)组数据(包含一条数