在学习线性回归中,我们在初中学习的时候,一般设x,y二个离散的数据,用二维坐标系画出来的点如图:
我们先可以回忆一下什么叫回归:
回归:
1 把一系列的散点的数据用一条线段尽可能的拟合出来(二维是线段 三维是平面 高维那就是超平面)
2 这条曲线不仅仅可以拟合,在未来趋势上也会对未来数值x,进行预测y
如图为线性拟合的后的曲线:
那么假设函数是什么呢?
我们由上图可以得到 :
y = a*x + b
在假设函数中,我们知道的值为x和b,而a,b是未知的,所以我们会用 以下公式来代表我们预先假设出来的函数。
h(θ)x = θ^T*x 且xo = 1
虽然二者的公式看着不像,是我们为了方便,将B这个用θo来代替,然后令xo = 1,这样函数就可以结合。至于这里的函数为什么是转置,因为一般的向量我们默认为列向量。
现在假设函数出来,我们需要知道我们这些点和我自己本身的值的误差有多大,就引出了损失函数,它的目的是查看我的数据的点与曲线的差的平方(平方是为了二者相减有正有负)
J(θ)x = (h(θ)x - y)^2
现在我们只是知道一个误差,如果我们想要所有样本的误差与真实值之间误差的平均值(也就是每一个点与曲线大概平均差了多少)
J(θ)x = (h(θ)x^(i) - y^(i))^2