论文阅读之:Deep Meta Learning for Real-Time Visual Tracking based on Target-Specific Feature Space...

 Deep Meta Learning for Real-Time Visual Tracking based on Target-Specific Feature Space 

2018-01-04  15:58:15 

 

Paper: https://arxiv.org/pdf/1712.09153.pdf 

更新后的版本:Deep Meta Learning for Real-Time Target-Aware Visual Tracking 

  

写在前面:为什么要看这个paper?这篇 paper 貌似是第一个将 meta-learning 应用到 visual tracking 领域的,取得了速度和精度较好的平衡。

Introduction:

我们知道,tracking 中比较重要的就是 target object 特征的学习 以及 物体外观的变化。很多算法都针对这两点一直进行改进,而最近 NN 对特征的表达提供了很好的解决,但是,物体外观的变化,仍然不能很好的处理,很多都是 用跟踪的结果弄一个 target object 的集合,然后适时的进行更新。但是,这种策略是不可避免的,分类器通常都会 overfitting,然后丢失了 the generalization capabilities due to the insufficient training of samples.

  本文基于以上背景和动机,提出了一种 end to end visual tracking network structure,主要包括了两个部分:

  一个是:Siamese matching network for target search,

  另一个是:meta-learning network for adaptive feature space.

  这里我们主要关注的是这个 meta-learning network,我们提出的一个 参数预测网络(parameter prediction network),当然这里是借鉴了最新的 meta-learning 用于 few-shot learning problem.

  

  The proposed meta-learner network is trained to provide the matching network with additional convolutional kernels so that the feature space of the matching network can be modified adaptively to adopt new appearance templates obtained in the course of tracking. The meta-learner network only sees the gradients from the last layer of the matching network, given new training samples for the appearance.

  We also employ a novel training scheme for the meta-learner network to maintain the generalization capability of the feature space by preventing the meta-learner network from generating new parameters that causes overfitting of the matching network. By incorporating our metalearner network, the target-specific feature space can be constructed instantly with a single forward pass without any iterative computation and optimization and free-from the innate overfitting. Fig.1 illustrates the motivation of proposed visual tracking algorithm.
  

  

  Tracking with Meta-Learner

  1. Overview of Proposed Method 

  1.1. Compoent

  本文所涉及到的网络结构有两个部分构成:the matching network and meta-learning network.

  Siamese Matching Network 用来计算两个 image patch 之间的相应图(the response map):

  

  这部分特征提取 CNN是 fully convolutional network,损失函数就是计算:预测的响应图 和  groundtruth Response map 的差异。

  

  Meta-learning Network:这个网络提供的是  the matching network with target-specific weights given an image patch of the target with context patches z = {z1, ..., zM}.

  为了调整 weights 超向 target patch,我们利用 损失函数的平均负梯度 $\delta$ 来更新 matching network 的最后一层:

  

  The meta-learning network 的设计是基于一个假设:the characteristic of $\delta$ is empirically different according to a target.  这句话是什么意思 ?

  

  然后,这里将 $\delta$ 作为输入,the meta-learning network $g_{\theta}(*)$ 对应输入的 target-specific weights $w^{weights}$:

  

  其中,$\theta$ 是 the meta-learning network 的参数。这个新的 weights 被用来更新 matching network's 原始权重:

  

  其中, 连接了 $w^{target}$ to $w_{N}$ of last layer for feature extraction. 本文方法的流程图,如图2所示。
  

  

  

  

  

  Experiment:

    

 

 

 

转载于:https://www.cnblogs.com/wangxiaocvpr/p/8193880.html

### 回答1: MediaPipe Hands是一种基于设备的实时手部追踪技术。它是由Google开发的计算机视觉库MediaPipe的一部分,旨在通过摄像头捕捉的视频流对手部进行准确的实时追踪。 Mediapipe Hands利用了深度学习模型和机器学习算法,能够识别视频中出现的双手,并对它们的位置和手势进行跟踪。这项技术可以应用在许多领域,包括虚拟现实、增强现实、手势识别和手势控制等。例如,在游戏中,可以使用Mediapipe Hands实时追踪玩家的手势,将其转化为虚拟角色在游戏中进行相应的动作。 Mediapipe Hands的一个显著特点是其在设备上的实时性能。相比于传统的手部追踪方法,Mediapipe Hands能够在保持高准确性的同时,实现实时的处理和反馈。这得益于其优化的模型架构和高效的计算算法。作为一种基于设备的解决方案,Mediapipe Hands无需依赖云端服务或高性能硬件,可以在较低功耗和资源受限的设备上运行。 此外,Mediapipe Hands还支持多个手势的识别和跟踪。它可以检测手的位置、边界框、手指的位置和手势类别,例如拇指的弯曲、手掌的张开和手势的连续跟踪。这种多样性使Mediapipe Hands成为一个强大而灵活的工具,适用于不同的视觉和交互应用。 总之,Mediapipe Hands是一种基于设备的实时手部追踪技术,具有高准确性、低延迟和多功能的特点。它为虚拟现实、增强现实、手势识别和控制等应用领域提供了一种简单而可靠的解决方案。 ### 回答2: MediaPipe Hands是一个由Google开发的机器学习技术,用于在设备上实现实时手部追踪。它基于深度学习模型,可以从设备的摄像头中识别和跟踪手部的动作和位置。 Mediapipe Hands使用的模型经过训练,可以识别手部的21个关键点,包括手指的关节和指尖。它可以在设备上实时分析摄像头捕捉到的图像,并进行准确的手部追踪。这种技术可以用于手势识别、手势控制和虚拟现实等应用领域。 相比于传统的基于云端的手部追踪技术,Mediapipe Hands的优势在于其实时性和隐私性。由于模型是在设备本地运行,不需要依赖于云端的计算资源,因此可以实现即时的反馈和交互。同时,所有的图像和手部数据都在设备上进行处理,保护了用户的隐私。 除了实时追踪手部的动作和位置外,Mediapipe Hands还可以提供手势识别的功能。通过识别手部的动作和位置,它可以判断用户是点击屏幕、捏取物体还是做出其他手势。这种手势识别能够为用户提供更自然、直观的交互体验,并且可以被广泛应用于手机、平板电脑、AR/VR设备等不同类型的设备上。 总之,Mediapipe Hands是一项强大的机器学习技术,能够在设备上实现实时的手部追踪和手势识别。它为用户提供了更直观、自然的交互体验,并且保护了用户的隐私。这项技术具有广泛的应用潜力,可以用于各种不同的设备和场景。 ### 回答3: Mediapipe Hands是一项在设备上实时手部追踪技术,由谷歌开发。它利用神经网络模型和计算机视觉技术,能够精确地检测和跟踪人手的动作和姿势。 这项技术主要适用于在移动设备和嵌入式系统上进行手部追踪。相比于传统的云端追踪方案,Mediapipe Hands使用了高效的计算机视觉算法,能够在设备本地实时进行处理,无需依赖云端网络服务,有效提高了实时性和隐私性。 利用Mediapipe Hands技术,用户可以通过摄像头捕捉手部的位置和动作,实现手势识别、手势控制等功能。这项技术可以广泛应用于移动游戏、虚拟现实、增强现实、手势交互和人机界面等领域。 Mediapipe Hands的优势在于其快速准确的手部追踪能力。它能够将手部的关键点(如手指、掌心等)精确地识别和跟踪,实现高精度的手部姿势估计。而且,由于是在设备上进行实时处理,其响应速度非常快,可以满足实时交互的需求。 总体而言,Mediapipe Hands是一项在设备上实时追踪手部动作和姿势的技术。它的应用范围广泛,可以用于移动设备和嵌入式系统,提供高精度的手部追踪功能,为用户带来更加现实、交互友好的体验。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值