第二章以单变量线性回归为例,介绍了线性回归的相关概念,这一章我们会从一个变量延申到多个变量。
1、假设函数:
单变量线性回归中变量为x,假设函数为h=kx+b;
在多变量线性回归中变量为x0,x1,x2,······xn,则假设函数为h=k0+k1x1+k2x2+k3x3+······+knxn,不妨令x0=1,则假设函数还可以写作:h=k0x0+k1x1+k2x2+······+knxn,设x=[x0,x1,x2······xn]',k=[k0,k1,k2······kn]'。则h=k'x。
2、模型参数:k0,k1,k2······kn
3、代价函数:
J(k0,k1,k2···kn)=1/(2*训练样本数) *(h(xi)-yi)^2 ,此处xi为向量,xi=[xi0,xi1,xi2···xin]’。
4、梯度下降公式: