之前关于回归我们已经说了很多了.
然后我们再来看之前我们看的高斯分布,说y = ax +b ,只是考虑了一个因素x的维度说1个x,
那么如果,我们考虑多个维度,可以看到,x ,y 都有多个的情况,考虑到因素说多个的情况,就可以得到
上面的这个图了,可以看到上面的这个x,y都是多维度的.
然后我们再来看这里x1 到 xn,这里是考虑的维度,然后m说样本数据,也就是有m个样本数据,然后
每个数据,有x1 到xn ,个数据,所以这个数据x实际上就是一个m * n的矩阵,然后y,说一个m个样本 1列的结果数据,然后我们再来看,这里什么是截距:
比如上面 y = w0 + w1*x1 ....,这里我们说当x是0的时候,那么y = w0 ,那么这个w0,我们就