soft-svm的理解+logistic 与SVM结合输出概率值+logistic 用到z域

软svm就是L2规范化

我们上一讲得到,soft-svm的形式为
这里写图片描述
其实我们根据
这里写图片描述
可以得到
这里写图片描述
那么原来的soft-svm的表达式就是
这里写图片描述
发现没有,这已经变成了没有约束条件的形式。
发现他与我们可以简化为
这里写图片描述
其实他就是L2泛化的形式
这里写图片描述
其实他就是L2泛化的形式,只是区别是,L2泛化是最小化err,用 wTw 来约束过拟合。而soft-svm是最小化 wTw ,用C,err约束过拟合。
我把svm与以前泛化的形式进行比较
这里写图片描述
发现,svm就是泛化函数。

soft-svm的 errsvm err0/1 的上限,且svm就是对logistic regression 进行L2处理形式

这里写图片描述
errsvm 这里写图片描述
画出的 errsvm 0/1svm 形式的图形为
这里写图片描述
可以发现 errsvm err0/1 的上限。

我们再把logistic regression的err曲线加上去
这里写图片描述
注意,这里logistic regression的err除了一个 ln2
在横坐标ys改变时, errsvm err0/1 变化曲线很相近。且有
这里写图片描述
所以,我们说soft-svm大概就是logistic regression进行L2 泛化后的形式。

logistic 与SVM结合 用svm输出概率值,logistic回归解z域的情况

我们前面学得输出概率值得模型,就是logistic 回归。
为了能够svm的特性(kernel)和logistic的特性(最大似然值)结合起来,总结一个姓的模型
这里写图片描述
那么新logistic回归的值为
这里写图片描述
那么新模型的运算步骤为
这里写图片描述

这种情况下, 可以理解为可以用logistic回归解决z域的情况,但其实并不完全是这样的。因为我们这里其实仅仅是用svm来解决z域 的值,然后将其带入logistic 回归里。所以并不是真正的在z域里解logistic 回归问题。

一定要在z域解logistic回归的问题 Kernel Logistic Regression (与svm无关,只是借用其kernel的思想)

我们在解svm时,用到kernel函数化简z域的问题。之所以是这样,原因为我们得到的 w 是z的线性组合这里写图片描述。当 w 是z的线性组合时,就可以把 wTz 转化为 zTz 的形式,就表示出核函数了。这里写图片描述
那么在Logistic Regression我们也希望这样做,即希望 w 是z的线性组合这里写图片描述
其实有一个结论:
当我们的模型是L2规范化线性模型时,即形如
这里写图片描述
那么他的最优解 w 就可以满足w_*$是z的线性组合这里写图片描述
证明:
这里写图片描述
则有
这里写图片描述=0,如果以上结论不成立的话, 则这里写图片描述不为0,则
这里写图片描述
这里写图片描述是最优的,即他们值应该最小,可是这里得到其大于这里写图片描述,矛盾,所以这里写图片描述为0 ,则这里写图片描述,则可以满足w_*$是z的线性组合这里写图片描述

那么这里写图片描述就可以化简为
这里写图片描述
由于他没有约束条件,那么他用 GD/SGD等等都可以求解。
他的缺点是比上面logistic+svm运算量大一些。

Kernel Logistic Regression (KLR) 的理解
这里写图片描述

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值