文章理解:Fast Discriminative Visual Codebooks using Randomized Clustering Forests

分裂属性

  1. 随机聚类森林以简单的对特征点中的某一维与随机阈值进行比较作为节点的分裂属性,训练样本集在树上递归地分离为两部分。
  2. 随机聚类决策森林算法的测试属性的选择是完全随机的,在使用训练样本进行决策树训练时,在所有参与分类的属性中随机选择测试属性,并与随机生成的阈值进行比较,将训练样本分类两个分支,这个过程循环下去,直到叶节点为止。

视觉单词:随机聚类森林中每棵随机树的叶子节点均被视为视觉单词。

  1. 理论上不需要类标签,但是如果有类标签可以指导建树
  2. 视觉单词(a distinct region label)即叶子节点,是个符号,仅代表它的位置
  3. M棵树,每棵树n个叶子节点,则m*n个视觉单词

 

每一张图像的每个特征点,以深度递归的方式为每个特征点寻找它在每一棵树上所对应的视觉单词,向所有树都映射(一个特征可以分配到T个视觉单词,T是树的个数),从而形成一个视觉单词统计向量,训练库图像得到的向量集合用于分类器SVM训练,而测试图像则将向量输入分类器SVM,SVM的输出结果为该测试图像的归属类别。

 

得分函数SCORE:

ERC-Forest与经典的决策树算法相比,运算的复杂度大大增加了,为了一定程度上降低运算量,随机聚类决策森林算法提出得分函数SCORE:

公式中I(S)表示划分结果S和实际类别C的互信息。HS(S)表示训练样本中针对划分S的信息熵。Hc (S)表示训练样本中针对类别C的信息熵。互信息度量两个对象之间的相互性,用互信息作为特征词和类别之问的相关性的度量,如果特征词属于该类的话,它们的互信息量最大。

本文算法在随机选取某个维度,和随机阈值t作为测试属性和阈值,在决策树上形成节点,并将S 划分为两个子数据集SL和sR。,然后根据上式计算该节点的得分值,将所有随机生成的测试属性和阈值一一计算得分值后,认可得分最高的节点,即得分最高的属性和亮度阈值t作为决策树的正式节点并将训练样本S划分为SL和sR。从而实现决策树的测试属性选择(实现咋分叉)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值