《中国人工智能学会通讯》——11.71 在线多示例度量学习的结构化稀 疏表观模型...

11.71 在线多示例度量学习的结构化稀 疏表观模型

正如上一节所述,稀疏表示作为一种有效的物体中层表示策略,在视觉目标跟踪中得到了成功应用。然而,基于稀疏的跟踪算法中[3-9]最终跟踪结果的确定大多以重构误差大小为衡量标准。研究发现,以重构误差构造目标的观测似然概率存在一些问题。

(1)重构误差的大小很大程度上依赖于字典的构成。很多跟踪算法[12-13]采用在线地更新字典基元的方式以适应目标表观变化,即所谓的跟踪中字典学习策略。然而,用最新的跟踪结果来更新字典基元,由于潜在的误差累积很容易造成跟踪漂移。

(2)跟踪中,重构误差通常以预先定义好的度量来计算,比如L2距离[14-15] 、Matusita距离 [16] 等。而预先设定的度量往往缺少适应表观变化的能力。

(3)大部分算法直接用重构误差构造目标的观测似然概率却没有考虑背景信息,尤其是基于稀疏表示的产生式跟踪算法,以致于在处理复杂背景时由于缺少判别力而失败。

为了解决上述问题,这里主要关注的是通过在线度量学习算法学习合适的度量以确定与给定模板最相似的候选区域,而不是直接用重构误差来定位目标区域。本章提出了一种基于在线多示例度量学习的结构化稀疏表观模型。目的是在局部稀疏编码特征空间中通过学习合适的度量矩阵使得同一物体的不同表观彼此相似,同时能使物体很好的从背景分离出来。所提方法主要包括以下两点内容:① 权重局部稀疏编码的多尺度最大汇聚操作。直接从感兴趣区域获得稀疏编码易受旋转变换、噪声等影响。为减轻这些影响,对候选目标中采样得到的局部图像块的稀疏编码向量进行多尺度最大汇聚操作(Multi-scale max pooling)。这种汇聚操作既考虑了局部表示的空间信息又对平移、旋转变换有很好的鲁棒性。采用这种表示策略能提高目标定位的准确性。② 在线多示例度量学习。一般地,在跟踪结果周围区域采用训练样本更新表观模型。轻微的误差累积会使学到的度量性能下降从而跟丢目标。受多示例学习的启发,提出一种在线多示例度量学习策略,利用“打包”的思想为训练样本分配标签,能很好的减轻跟踪的漂移问题。

本节提出的方法与其他基于局部稀疏编码的目标跟踪方法[3,17-18]不同,本节用权重局部稀疏编码建模物体表示,即在整个目标表示的稀疏向量中,越靠近目标中心的图像块的稀疏编码权重越大;反之越小。并且利用度量学习的思想构建目标的似然概率,使得目标能很好的从背景中分离出来。在文献 [3] 中,作者用对齐汇聚方法对局部图像块的稀疏编码进行汇聚操作以提高跟踪性能。当目标的形变较小或者变化比较平稳时对齐汇聚能取得较好的跟踪效果,然而,它不能处理较大形变的情况。与文献 [17] 不同的是本方法无需独立地将产生式跟踪和判别式跟踪结合在一起,建模的视觉特征相似性度量目标函数既考虑背景信息又具有产生式跟踪的特点。

与已有的基于度量学习的目标跟踪算法[19-23]不同,所提出的在线多示例度量学习算法,能有效地减轻跟踪中目标漂移问题。Jiang et al [19] 在核跟踪[24]的 框 架 下 采 用(neighborhood component analysis,NCA)度量学习策略自适应的更新相似性矩阵取得了理想的结果;然而其采用简单的颜色直方图来表示物体,不能很好地处理遮挡情况。其次,在当前帧跟踪结果周围选择正负样本,这样会随着跟踪结果的误差累积使得度量学习失去它应有的作用,即产生漂移问题。Wu et al [21] 通过学习不同分布之间合适度量用到轮廓跟踪中。然而,上面提到的这些算法[19-21]都是采用离线的形式每隔几帧重新学习度量矩阵,这无疑增加了计算负担。Li et al [22] 用学到的 Mahalanobis 距离建模非稀疏的表观模型用于跟踪,由于忽略了琐碎模板从而不能很好地处理遮挡问题。Tsagkatakis et al [23] 用在线度量学习自适应地为最近邻分类器寻找最优的度量矩阵;然而,它和众多判别式跟踪方法类似很容易产生漂移问题。需要指出的是,Hong et al [25] 在原始的图像空间中运用 Dual-force 度量学习和 L1 最小化框架提出了一种抗干扰的跟踪算法。与文献 [25] 方法不同,本方法是在稀疏编码特征空间中学习合适的度量;采用了三种不同的距离约束使学得的距离能聚合同类数据并分离不同类数据。同时,采用多尺度最大汇聚的局部稀疏表示比单纯地使用灰度特征的方法[20,23,25]能更好的处理遮挡挑战。

至此,本文从表观建模中目标表示和统计建模两个要素出发一共提出了四种跟踪方法。分别是基于锚点标签传播的判别式跟踪方法(RobustDiscriminative Tracking via Landmark-based LabelPropagation,LLPT)、基于主动样本选择的判别式 跟 踪 方 法(Online Discriminative Tracking withActive Example Selection,AEST)、 基 于 黎 曼 流形稀疏表示的目标跟踪方法(Sparse Representationon Riemannian Manifold for Visual Tracking,RMSCT)和在线多示例度量学习的结构化表观模型(Metric Learning based Structural AppearanceModel,MLSAM)。其中 LLPT 和 AEST 关注的是统计建模,RMSCT 主要关注目标的表示策略,而MLSAM 同时考虑了表示和统计建模。本文利用精确度(Precision Plot)重叠率(Overlap Rate)来衡量跟踪器的性能[26] 。精确度统计的是在一个图像序列中跟踪位置与真值之间的误差,在一定阈值范围内的图像帧数占整个图像序列帧数的百分比。比如,阈值设定为 20 个像素。一个好的跟踪算法在较低阈值下能有较高的精确度。如果一跟踪器在跟踪过程中丢失了目标,它很难得到较高的精确度,除非是跟踪器在图像序列的最后几帧丢失目标。重叠率则更能体现跟踪性能的鲁棒性,因为它不但考虑了跟踪框的位置,还考虑了跟踪框的面积、旋转等因素。图 3 给出了本文四种算法在 Benchmark测试集[26]上的精确度和成功率的结果。从图 4 可以看出,关注统计建模的 LLPT 和 AEST 要比关注目标表示的 RMSCT 好。虽然 MLSAM 同时考虑了表示和统计建模,但是在 MLSAM 中统计建模用的是监督的度量学习。监督的学习策略还是很容易引起漂移问题。LLPT 和 AEST 都采用半监督的学习策略,充分利用了标签数据和无标签数据的几何结构关系,使学到的分类器更能适应表观变化。image

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 批量操作是指一次性对多个数据进行操作,可以提高操作效率。在使用 Spark 读写 HBase 时,也可以使用批量操作来提高效率。具体实现方式如下: 1. 批量写入数据 使用 HBase 的 Put 类来创建要写入的数据,然后将 Put 对象添加到一个 List 中,最后使用 HBase 的 Table 类的 put 方法来批量写入数据。示例代码如下: ```scala val conf = HBaseConfiguration.create() val connection = ConnectionFactory.createConnection(conf) val table = connection.getTable(TableName.valueOf("table_name")) val puts = new ListBuffer[Put]() for (i <- 1 to 100) { val put = new Put(Bytes.toBytes(s"row_$i")) put.addColumn(Bytes.toBytes("cf"), Bytes.toBytes("col"), Bytes.toBytes(s"value_$i")) puts += put } table.put(puts.toList.asJava) ``` 2. 批量读取数据 使用 HBase 的 Get 类来创建要读取的数据,然后将 Get 对象添加到一个 List 中,最后使用 HBase 的 Table 类的 get 方法来批量读取数据。示例代码如下: ```scala val conf = HBaseConfiguration.create() val connection = ConnectionFactory.createConnection(conf) val table = connection.getTable(TableName.valueOf("table_name")) val gets = new ListBuffer[Get]() for (i <- 1 to 100) { val get = new Get(Bytes.toBytes(s"row_$i")) get.addColumn(Bytes.toBytes("cf"), Bytes.toBytes("col")) gets += get } val results = table.get(gets.toList.asJava) for (result <- results) { val row = Bytes.toString(result.getRow) val value = Bytes.toString(result.getValue(Bytes.toBytes("cf"), Bytes.toBytes("col"))) println(s"$row: $value") } ``` 以上就是使用 Scala 实现 Spark 读写 HBase 的批量操作的方法。 ### 回答2: 在实际的数据处理中,一次需要对多条数据进行读写操作,如果每次都进行单条的读写逐条操作会使程序效率非常低下。所以spark提供了批量操作API,可以对多条数据进行一次性的读写操作,极大地提高了程序的效率。 批量读操作: 批量读取数据的方式有两种:Get和Scan。 使用Get方式读取多条数据,需要将每条数据对应的Get对象添加到List集合当中,再将List集合转换为RDD对象进行操作。示例代码如下: ```scala val conf = HBaseConfiguration.create() conf.set(TableInputFormat.INPUT_TABLE, tableName) val gets = new util.ArrayList[Get]() gets.add(new Get(Bytes.toBytes("rowkey1"))) gets.add(new Get(Bytes.toBytes("rowkey2"))) gets.add(new Get(Bytes.toBytes("rowkey3"))) conf.set(TableInputFormat.SCAN, convertScanToString(new Scan())) val getRdd = sc.parallelize(gets) val hbaseRdd = getRdd.map((_, null)).hbaseBulkGet(conf, tableName, (result: Result) => { val kv: Array[Byte] = result.getValue(Bytes.toBytes(family), Bytes.toBytes(column)) Bytes.toString(kv) }) println(hbaseRdd.collect.toBuffer) ``` 使用Scan方式读取多条数据,需要将Scan对象作为参数传入,再将RDD对象转换为PairRDD并使用hbaseScan方法进行操作。示例代码如下: ```scala val conf = HBaseConfiguration.create() conf.set(TableInputFormat.INPUT_TABLE, tableName) val scan = new Scan(Bytes.toBytes("rowkey1"), Bytes.toBytes("rowkey3")) conf.set(TableInputFormat.SCAN, convertScanToString(scan)) val hbaseRdd = sc.hbaseScanRDD(conf).map((result: Result) => { val kv: Array[Byte] = result.getValue(Bytes.toBytes(family), Bytes.toBytes(column)) Bytes.toString(kv) }) println(hbaseRdd.collect.toBuffer) ``` 批量写操作: 批量写操作可以使用Put对象集合,将多条数据对应的Put对象添加到集合中,并将集合转换成RDD进行操作即可。示例代码如下: ```scala val conf = HBaseConfiguration.create() conf.set(TableOutputFormat.OUTPUT_TABLE, tableName) val puts = new util.ArrayList[Put]() puts.add(new Put(Bytes.toBytes("rowkey1")).addColumn(Bytes.toBytes(family), Bytes.toBytes(column), Bytes.toBytes("value1"))) puts.add(new Put(Bytes.toBytes("rowkey2")).addColumn(Bytes.toBytes(family), Bytes.toBytes(column), Bytes.toBytes("value2"))) puts.add(new Put(Bytes.toBytes("rowkey3")).addColumn(Bytes.toBytes(family), Bytes.toBytes(column), Bytes.toBytes("value3"))) val putRdd = sc.parallelize(puts) putRdd.hbaseBulkPut(conf, tableName) ``` 总结: 批量操作是Spark访问HBase的常见操作方式,在实际的实现过程中需要注意以下几点: 1、Get和Scan对象在HBase中读取数据的方式不一样,需要注意区分; 2、使用批量读操作可以大大提高程序效率,减少读写操作的时间消耗; 3、使用批量写操作需要合理规划写入的数据,避免出现数据冲突问题,影响程序的运行。 ### 回答3: 本篇文章将继续深入介绍如何使用Scala编码实现Spark读写操作HBase,具体涉及到HBase的批量操作。 一、Batch操作概述 在使用HBase进行数据处理的时候,我们常常需要对一个或多个表进行批量操作,批量操作即是针对 HBase的多行进行插入、删除等操作,以此来实现在HBase操作上的高效处理。HBase提供了很多批量操作API,比如 Put、Get、Delete、Scan,这些API都是可以批量操作的。 在Spark中,我们同样可以使用类似的API对HBase进行批量操作。本文将根据具体需求使用Spark实现HBase的批量操作。 二、批量操作的实现 Spark读写HBase时,使用RDD中的foreachPartition来对每个分区进行处理,在该函数内使用HBase API进行操作。关于批量操作,我们可以在每个分区中开启一个batch操作,将每个操作加入batch后,再提交即可。 例如,我们可以考虑实现一个批量put的功能,将RDD中的数据一批一批写入表中: ``` def insert(tableName: String, rdd: RDD[(String, String)]): Unit = { try{ rdd.foreachPartition({ iter => val conf = HBaseUtils.getHBaseConfiguration() conf.set(TableOutputFormat.OUTPUT_TABLE, tableName) val conn = ConnectionFactory.createConnection(conf) val table = conn.getTable(TableName.valueOf(tableName)) val puts = new java.util.ArrayList[Put]() iter.foreach { case (rowKey:String, value: String) => { // 构造put对象并append val put = new Put(Bytes.toBytes(rowKey)) put.addColumn(Bytes.toBytes(columnFamily), Bytes.toBytes(columnQualifier), Bytes.toBytes(value)) puts.add(put) if (puts.size() >= batchSize) { // 多条记录组成的put对象,使用put(List<Put>)一次性写入 table.put(puts) puts.clear() } } } // 如果puts还有内容,再写一次 if (puts.size() > 0) { table.put(puts) puts.clear() } table.close() conn.close() }) } catch { case e: Exception => e.printStackTrace() } } ``` 在该方法中,我们使用foreachPartition遍历RDD中的每个分区,然后通过Connection来获取HBase表实例。 之后定义了一个用于存放Put的List,当List的大小大于等于batchSize时,就将这个List中的所有put操作提交给HBase执行。 最后,释放资源,并为大家展示如何调用这个方法: ``` val rdd: RDD[(String, String)] = ... val tableName: String = ... insert(tableName, rdd) ``` 使用这种方式实现批量put,我们可以将一批数据提交到HBase执行,从而提升写入效率。当然,对于其他批量操作也可以应用类似的方式。 三、总结 本文根据实际需求,结合Spark和HBase的特点,实现了一些常用的批量操作,为大家提供了一个快速、高效的HBase操作方案。批量操作的好处是,可以将多条记录一次性操作,请求与写入等待时间都会得到缩短,获得更高的效率。感兴趣的同学可以试试,在实际开发中应该会受益匪浅!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、C币套餐、付费专栏及课程。

余额充值