https://zhuanlan.zhihu.com/p/28036014
关于SVM有一句话是说距离超平面较远的点直接为0,这个意思是说分类正确的为0;
关于LR有一句话是说减小距离较远的点的权重,是指(1-yi)和yi这个式子,距离较远则表示分类越正确,1-yi和yi越接近0;
总之:lr 采用的交叉熵 loss 和 svm 采用的 hinge loss function 思想都是增加对分类影响较大点的权重,减少那些与分类相关不大点的权重
https://zhuanlan.zhihu.com/p/28036014
关于SVM有一句话是说距离超平面较远的点直接为0,这个意思是说分类正确的为0;
关于LR有一句话是说减小距离较远的点的权重,是指(1-yi)和yi这个式子,距离较远则表示分类越正确,1-yi和yi越接近0;
总之:lr 采用的交叉熵 loss 和 svm 采用的 hinge loss function 思想都是增加对分类影响较大点的权重,减少那些与分类相关不大点的权重