机器学习笔记——SMO算法参数alpha上下界
参考文章
参考文章链接:https://blog.csdn.net/guoziqing506/article/details/81155323
文章博主:guoziqing506
在阅读博主【guoziqing506】文章:SVM解释:五、SMO算法的过程中,关于算法迭代中有部分推导未给出,此处做个笔记:
关于参数上下界的笔记
在SMO算法的解决过程中涉及到了两个参数的上下界问题,首先在解决优化问题中的约束条件如下:
![](https://i-blog.csdnimg.cn/blog_migrate/bbf70df3c51178ab7b798eaf1def1dc6.png)
其中 y i = ± 1 y_i=\pm1 yi=±1,通过上述条件可以将约束条件转化为求解 α 2 ( α 2 = γ ⋅ y 2 − y 1 ⋅ y 2 ⋅ α 1 ) \alpha_2(\alpha_2=\gamma·y_2-y_1·y_2·\alpha_1) α2(α2=γ⋅y2−y1⋅y2⋅α1),且观察如上的约束条件可以得知,该约束条件可以理解为下图中形式:
在阅读博主的文章当中,关于两个参数 α 1 \alpha_1 α1和 α 2 \alpha_2 α2的上下界(上界 H H H、下界 L L L)如下:
y 1 y_1 y1和 y 2 y_2 y2异号时
L = m a x ( 0 , |
---|