有些问题,如果不把它清晰的表述出来,就会一直有那种让人觉得不懂感到很难受的感觉。所以就像给自己写日记一样,想把思考过程中让自己感到费解的一些点,抠出来,放大,解决它!
两个样本点积的形式,就一定能写成核函数么?
在机器学习中,我们要用到内积运算。而在映射后的高维空间中,内积往往是很不好求解的。所以,我们能不能找到在低维空间中的某个运算,恰好等于高维空间中的内积运算呢?
是不是理解成,即便我们没有将自己的数据向高维去映射,但只对于我们维度很高的数据,为了简化其运算,也可以将其写成内积的形式。
换句话说,核函数就是低维空间中的内积的某个函数。
当我们对新的样本点进行数据分类的时候,我们可以通过判断这个样本向量和我们求得的分割超平面的法向量w的内积来计算,二者的夹角若是小于90度,说明分类正确,夹角若是大于90度,说明分类错误。
而之前我们是怎样判断一个样本分类正确与否的呢?我们是先初始化一个分割超平面,然后分别把我们的样本点带入到超平面的方程,结果值大于0的分为一类,小于零的分为一类,
之前是,给定训练数据,找一条直线去拟合这些数据,一个样本数据有 x 1 , x 2 , . . . x n x_1,x_2,...x_n x1,x2,...xn,n个特征,我们给每个特征分别赋以n个权重 w 1 , w 2 , . . . w n w_1,w_2,...w_n w1,w2,...wn,有了权重和特征的线性组合 f ( x ) = w 1 x 1 + w 2 x 2 + . . . + w n x n f(x)=w_1x_1+w_2x_2+...+w_nx_n f(x)=w1x1+w2x2+...+wnxn,这样我们就可以对新的数据进心预测。