本文是基于张永博士的基于改进的 PCM 支持向量描述多类分类器。
在上一节中,我们看到了标准SVDD的训练方法。对于分类问题,经典的作法经常是对每一类样本,分别训练一个SVDD。对于新的待测样本,如果它落入且仅落入一个SVDD的范围内,则将它预测为该SVDD的类别,如果样本落入重叠区域,则计算样本到每个SVDD球心的距离,将其预测为与之距离最近的SVDD的类别。
经典算法,每一个样本在构造最优超球体时具有同样的地位。若训练数据中含有噪声点,则会影响SVDD的结果。所以PCM-SVDD的思路就是通过PCM计算每个样本对每类SVDD的影响程度。在这个过程中,有的样本被多次使用,有的样本未被使用。
加权SVDD
其中mi为样本xi的权值。
通过拉格朗日法将其转变为对偶问题
最终加权SVDD将转变为以下对偶问题
对比前一节的结果,我们可以看到,加权对偶问题与原始对偶问题基本相同,只是每个alpha的上限改变了。通过改变原始问题的限制,原始的优化过程不发生改变。