支持向量数据描述<二>

本文是基于张永博士的基于改进的 PCM 支持向量描述多类分类器。

在上一节中,我们看到了标准SVDD的训练方法。对于分类问题,经典的作法经常是对每一类样本,分别训练一个SVDD。对于新的待测样本,如果它落入且仅落入一个SVDD的范围内,则将它预测为该SVDD的类别,如果样本落入重叠区域,则计算样本到每个SVDD球心的距离,将其预测为与之距离最近的SVDD的类别。

经典算法,每一个样本在构造最优超球体时具有同样的地位。若训练数据中含有噪声点,则会影响SVDD的结果。所以PCM-SVDD的思路就是通过PCM计算每个样本对每类SVDD的影响程度。在这个过程中,有的样本被多次使用,有的样本未被使用。

加权SVDD
加权SVDD
其中mi为样本xi的权值。
通过拉格朗日法将其转变为对偶问题
加权SVDD的对偶问题
加权SVDD求偏导
最终加权SVDD将转变为以下对偶问题
转化后的结果
对比前一节的结果,我们可以看到,加权对偶问题与原始对偶问题基本相同,只是每个alpha的上限改变了。通过改变原始问题的限制,原始的优化过程不发生改变。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值