点积的形式,就一定能写成核函数么?

有些问题,如果不把它清晰的表述出来,就会一直有那种让人觉得不懂感到很难受的感觉。所以就像给自己写日记一样,想把思考过程中让自己感到费解的一些点,抠出来,放大,解决它!

两个样本点积的形式,就一定能写成核函数么?

在机器学习中,我们要用到内积运算。而在映射后的高维空间中,内积往往是很不好求解的。所以,我们能不能找到在低维空间中的某个运算,恰好等于高维空间中的内积运算呢?

是不是理解成,即便我们没有将自己的数据向高维去映射,但只对于我们维度很高的数据,为了简化其运算,也可以将其写成内积的形式。

换句话说,核函数就是低维空间中的内积的某个函数。

当我们对新的样本点进行数据分类的时候,我们可以通过判断这个样本向量和我们求得的分割超平面的法向量w的内积来计算,二者的夹角若是小于90度,说明分类正确,夹角若是大于90度,说明分类错误。

而之前我们是怎样判断一个样本分类正确与否的呢?我们是先初始化一个分割超平面,然后分别把我们的样本点带入到超平面的方程,结果值大于0的分为一类,小于零的分为一类,

之前是,给定训练数据,找一条直线去拟合这些数据,一个样本数据有 x 1 , x 2 , . . . x n x_1,x_2,...x_n x1,x2,...xn,n个特征,我们给每个特征分别赋以n个权重 w 1 , w 2 , . . . w n w_1,w_2,...w_n w1,w2,...wn,有了权重和特征的线性组合 f ( x ) = w 1 x 1 + w 2 x 2 + . . . + w n x n f(x)=w_1x_1+w_2x_2+...+w_nx_n f(x)=w1x1+w2x2+...+wnxn,这样我们就可以对新的数据进心预测。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值