八. 支持向量机(SVM)
1. 优化目标
复习:逻辑回归
1. 假设函数:
2. 代价函数:
y=1和y=0时的代价函数图像(紫色为SVM优化的代价函数)3. 正则化:
4. 输出:
当ℎ𝜃 (𝑥) >= 0.5时,预测 𝑦 = 1;当ℎ𝜃 (𝑥) < 0.5时,预测 𝑦 = 0 。
(1)代价函数的优化:
(如上图紫色折线所示)替代逻辑回归中的代价函数,为SVM带来计算上的优势。
左侧(y = 1时)命名为,右侧(y = 0时)命名为
代价函数的对比
(2)正则化的优化:
- 除去1/m项(常数项不影响使代价函数最小的θ的选择)
- 用参数 c 代替正则化参数 λ (改为优化目标,与 1/λ 作用相同)
(3)输出的优化:
直接预测 y 的值等于1还是0
2. 大边界分类
3. 核函数(Kernel function)
(1)为什么要引入核函数
之前用高级数的多项式模型来解决无法用直线进行分隔的分类问题
- 例如上图的判定边界,模型可能是
的形式。
- 用一系列新特征 f 来替换模型中的每一项:
- 得到
:除了对原有的特征进行组合,还可以利用核函数来计算出新的特征。
高斯核函数(Gaussian Kernel)