SVM分为了三类问题,并有不同的解决方法
hard margin来说解决分类问题对样本需求比较高,它需要一条线来直接分类,不允许有极值,有的话就会分的很奇怪
soft margin则没那么高要求,并且也包含hard magin,所以是最常用的,也会区分极值
kernel 核函数不是SVM原生的,它可以在任何分类器里面用
对偶函数更像一种转换方式,把问题转换成一种凸优化的问题,这样更方便求解
支持向量机也是解决分类问题等问题的一门技术,原生只有hard magin和soft magin两类,函数就是上面的函数,而对偶函数的转换和kernel是一种类似于便捷的解决方式
soft margin
和逻辑回归一样是一个损失函数+一个正则化 1/2||w||^2是正则化系数,则是损失函数.
为限制条件,这是逻辑回归和soft margin的第二个区别
用hard margin通过对偶函数推下目标函数吧
因为要对