OC1 算法

算法参考文献:A System for Induction of Oblique Decision Trees

目录

1. 算法流程

2. 扰动算法

3. 随机化

3.1 移动超平面

3.2 重启

4. 其他


1. 算法流程

         OC1 算法大部分情况下使用确定性爬山来确保计算精度,还使用了两种随机化来避免陷入局部最小值,通过限制随机选择超平面的数量减少运行时间。

2. 扰动算法

        OC1 算法对超平面的方向没有限制,然而,为了接近标准的决策树算法,超平面首先被设置为该结点上效果最好的轴平行平面(即单变量决策树做出的平面)。OC1 算法只有在斜平面优于单变量平面的情况下才进行。

        通过扰动现在的超平面使它偏移来寻找可能的超平面,由于超平面的存在数量是指数级,无法简单的枚举,需要一定的手段来限制(如 确定性启发式搜索,模拟退火),OC1结合了这两个想法,使用启发式搜索直到它得到一个局部最小值,然后使用一个非确定性搜索步骤(不是模拟退火)来得到一个局部最小值。

        假设算法输入样本集 T 的数量为 n ,样本的属性维度是 d ,一共有 k 个类别。T_{j}=(x_{j1}, x_{j2}, ... ,x_{jd}, C_{j}) 表示T中的第 j 个样本,C_{j} 是样本类别。则决策树当前结点的超平面方程为:

\sum_{i=1}^{d}a_{i}x_{i} + a_{d+1}=0

        将样本集 Tj 代入到上述公式中可以得到如下公式:

\sum_{i=1}^{d}a_{i}x_{ji} + a_{d+1}=V_{j}

        通过 V_{j} 的正负可以判断该样本是在超平面的上方还是下方,假定如果 V_{j}>0 意味着样本点在超平面 H 的上方,如果超平面 H 可以完美的划分训练集 T ,则所有的同一类的样本点代入上述公式后得到的 V_{j} 符号相同。

        OC1 算法一次调整超平面 H 的一个系数,在每次调整中确定该系数的局部最优值,如在调整系数 a_{m} 中,只将 a_{m} 视作变量,将其他系数视作常量,因此 V_{j} 可以视作 a_{m} 的函数,也就是 V_{j}(a_{m})=a_{m}x_{jm} + \sum_{i=1,i\neq m}^{d}a_{i}x_{ji}+a_{d+1}

        如果假定样本点在超平面 H 的上方,可以得到:

V_{j}>0

a_{m}>\frac{a_{m}x_{jm}-V_{j}}{x_{jm}} = U_{j}

        如果对输入的样本点提前做好规范化处理,则 x_{jm}>0 ,对样本集 T 中的所有点,有相同类的点在同一方向,所以将所有的样本点插入到上面公式,就可以得到 n 个关于 a_{m} 的约束方程。(比如假定样本 T_{1}, T_{2} 属于同一类且都在该超平面 H 的上方,则可得到两个约束 a_{m}>U_{1}, a_{m}>U_{2}

        由此问题就转化为找到一个尽可能多的满足上述方程组的解。解决方案如下:对所有的 U_{j} 值排序,然后将 a_{m} 值设为每一对不同值的中点;设 H_{1} 是改变 a_{m} 后得到的新超平面,计算新超平面的不纯度,如果不纯度降低,则用它替换原有的超平面。如果两者拥有相同的不纯度,则以概率 P 代替原来的超平面。

        算法流程如下:

        现在已经阐述了超平面扰动的算法,接下来需要选定如何选择 d+1 个系数来扰动,有顺序、最佳和随机三种方式。

  • 顺序:For i=1 to d, Perturb(H, i)
  • 最佳:重复直到系数 m 没有修改。m=扰动过程中最大限度改善不纯度时的值,然后调用 Perturb(H, m)
  • 随机:令 m 为随机值,重复一定次数,调用上述函数

        系数选择方式不会对分类精确度产生较大的影响。

3. 随机化

        当扰动算法达到局部最小时,算法停止。OC1 算法使用两种随机化方法跳出随即最小化。第一个方法是将超平面 H 移动一个随机向量,另一种是重新调用扰动算法并给出一个不同的初始超平面。

3.1 移动超平面

        当系统陷入局部最小化时,它选择一个随机的向量并将该向量添加到当前超平面的系数之中,然后计算沿当前扰动方向的最佳超平面。具体的说是,OC1 算法重复以下步骤 J 次(J由用户决定):

  1. 选定一个随机的向量 R=(r_{1},r_{2},...,r_{d+1})
  2. 令参数 \alpha 作为我们想让超平面 H 在方向 R 上的移动量,也就是H_{1} = \sum_{i=1}^{d}(a_{i}+\alpha r_{i})x_{i}+(a_{d+1}+\alpha r_{d+1})
  3. 找到最佳的参数 \alpha
  4. 如果 H_{1} 可以降低划分的不纯度,则用它代替原有的超平面 H 并退出循环。否则重复 1

        需要注意的是,参数 \alpha 作为超平面 H_{1} 的唯一参数。对样本集 T 的 n 个样本,将所有样本插入到等式中,就可以对该参数添加 n 个约束方程,因此可以借用第一节中的方法确定参数值。如果 J 次循环后不纯度没有改善,则选用原有超平面来划分结点。

        这种沿随机方向扰动超平面不会显著的增加算法的复杂度,并在实验中证明很有用。

3.2 重启

        第二种避免局部极小值的技术是对执行多次局部搜索的思想的一种变体。由于算法大部分都是确定性的,所以最初超平面会对是否会陷入局部值有很大影响。在第一种方法失败后,通过简单的换用一个新的初始超平面并重新开始训练可能会有用,并用重启来命名该算法。

        一个算法循环如下:一次扰动一个系数,然后当算法达到局部最小值时并得到该情况下的超平面后,尝试在一个随机方向扰动超平面。如果最后一次扰动降低了不纯度,就返回到一次扰动一个系数的环节。

        重启的次数是人为设定的,在实验中会随着重启次数的增加,分类精确度会逐渐增加直至饱和(大概 20 ~50 次)

        在结合爬山算法和随机化,OC1 确保最坏情况下的时间复杂度为 O(dn^{2}logn) 。

4. 其他

        在数据符合某些分布下,轴平行分割就是结点划分的最佳方法,OC1 算法结合了轴平行划分和斜平面划分,即初始超平面设置为轴平行平面。计算轴平行平面仅多花费 O(dnlogn) 的时间复杂度。

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值