间隔
对偶
核技巧
从感知机到支持向量机
支持向量和间隔最大化
支持向量机的三种情况
线性可分支持向量机与硬间隔最大化
回顾:感知机中的距离:
几何距离 函数距离
间隔最大化
问题转化
凸优化问题
*常用的二次规划问题求解方法
椭球法
内点法
拉格朗日法
梯度投影法
最大间隔分离超平面的存在唯一性
线性可分训练数据集的最大间隔分离超平面是存在且唯一的
证明
1、存在性
2、唯一性
反证法。先证w∗=w_1∗=w_2∗,再证b∗=b_1∗=b_2∗
3、两类数据正确分开
支持向量和间隔边界
约束优化方法之拉格朗日乘子法与KKT条件
无约束优化
等式约束优化
多个等式约束优化
不等式约束优化
KKT条件
详见ppt
线性可分支持向量机的对偶问题
学习的对偶算法
步骤一:带约束问题转化为无约束问题
步骤二:转换为强对偶问题
步骤三:求解w,b的极小值
步骤四:求解α的极大值
权值计算
分离超平面和分类决策函数
支持向量
线性支持向量机与软间隔最大化
软间隔
线性不可分的线性支持向量机
学习的对偶算法
线性不可分情况下的支持向量
线性支持向量机
损失函数角度看待软间隔:合页损失函数
线性支持向量机(另一角度)
非线性支持向量机与核函数
非线性分类问题
指通过利用非线性模型才能很好地进行分类的问题
线性分类方法求解非线性分类问题
核技巧(Kernel Trick)
核函数
非线性支持向量机学习算法
*序列最小最优化问题
支持向量机计算复杂
SMO算法
-
基本思想
所有变量同时求解代价大,每次选择两个变量进行更新
如果所有变量的解都满足此最优化问题的KKT条件,那么最优化问题的解就得到了 -
算法步骤
1、选择两个变量的启发式方法
2、求解两个变量二次规划的解析方法
3、更新参数
详见ppt
1、变量的选择方法
步骤1:第1个变量的选择
步骤2:第2个变量的选择
2、两个变量二次规划的求解方法
步骤一:子问题定义
步骤二:先不考虑不等式约束(7.103),求解α2的未经剪辑时的解
步骤三:考虑不等式约束(7.103),求解α2的最优解
确定边界L和H
步骤四:计算α_1的最优解
3、更新参数b和差值E_i
步骤1:重新计算b1,b2
步骤2:更新参数b
步骤3:更新差值Ei
*支持向量回归
支持向量回归
特点: 允许模型输出和实际输出间存在2e的偏差
损失函数
落入中间2e间隔带的样本不计算损失, 从而使得模型获得稀疏性
形式化
Scikit-learn中的SVM
详见ppt