Paper速读-[Visual Prompt Multi-Modal Tracking]-Dlut.edu-CVPR2023


论文链接:Visual Prompt Multi-Modal Tracking

开源代码:Official implementation of ViPT

简介

 这篇文章说了个什么事情呢,来咱们先看简单的介绍图
在这里插入图片描述
简单来说,这篇文章主要干了这么一个事情:
以前的多模态呢,都是直接提取特征然后拼接到一起。这个文章不一样,我把所有的模态分开主次,其中只有一个主要模态,剩下的都是附加的。这些附加的模态可就不要再提取特征了,而是通过他们来提取prompt出来。并且使用这些prompt来帮助我的模型更好的在主要模态上提取特征。除此之外,还有一个不一样的点就是在主要模态上提取特征的时候,backbone,这里叫fundation model的模型参数是不更新的。
OK,你已经看完这篇文章了。。当然啦,如果还想知道知道更多的技术细节,咱们接着往下看。

关于具体的思路

 咱们来看第二张图,模型的详细介绍
在这里插入图片描述
这个图其实画的很好,过程非常直观。接下来咱们只需要展开说说其中的细节就可以了

问题描述

 首先,我们想要得到的是追踪器,单模态的方法中,假如说叫做 F R G B : { X R G B , B 0 } → B F_{RGB} : \{X_{RGB}, B_0\} \rightarrow B FRGB:{XRGB,B0}B,那么 B B B就是目标的box, B 0 B_0 B0就是这个框的初始值, X R G B X_{RGB} XRGB就是需要搜索的帧。那么接下来,在多模态的方法中,加入了一个啥呢 F R G B : { X R G B , X A , B 0 } → B F_{RGB} : \{X_{RGB}, X_{A},B_0\} \rightarrow B FRGB:{XRGB,XA,B0}B,变成这个样子了。其中这个 A A A代表的就是其他的模态,比如说深度图,热力图之类的东西。
 接下来,我们把问题拆成两个部分,首先是 f 1 : X R G B , X A , B 0 } → H R G B f_1 : {X_{RGB}, X_{A},B_0\}} \rightarrow H_{RGB} f1:XRGB,XA,B0}HRGB 。这个部分表示的是特征提取和交互的部分,之后我们紧跟 f 2 : H R G B → B f_2 : H_{RGB} \rightarrow B f2:HRGBB ,这个部分也就是最后的预测头。

算法细节

 在这里会将一些细节,但是也不会那么细。简单来说是这样的

  • 使用类似ViT之类的模型从最初的 X R G B X_{RGB} XRGB得到 H R G B 0 H^0_{RGB} HRGB0,接下来就可以进行后续的迭代编码:在这里插入图片描述
  • 然后的公式其实就很直观了哈,咱们紧接上一步,接着往下看。首先我们可以知道,通过RGB和补充模态A,我们可以得到两个初始化的值 H R G B 0 H^0_{RGB} HRGB0 H A 0 H^0_{A} HA0。接下来, H R G B 0 H^0_{RGB} HRGB0通入我们的解码器,或者叫Foundation model,而 H R G B 0 H^0_{RGB} HRGB0 H A 0 H^0_{A} HA0被送到一个叫做MCP (modality-complementaryprompter) 的模块里面,这个模块咱们之后细讲。接下来,从MCP学到的prompt就被按照这样的方式使用起来了:
    在这里插入图片描述
    这个其中的P其实就是我们的prompt,H就是我们需要送入下一层解码器的输入。那么这个具体怎么得到呢?咱们再往下看
  • 简单来说,MCP就是这个样子:在这里插入图片描述
    展开来说呢, H 0 = H R G B 0 H^0 = H^0_{RGB} H0=HRGB0 P 0 = H A 0 P^0 = H^0_{A} P0=HA0。然后 P l P^l Pl表示第l个MCP模块,这个MCP模块具体长成这样:
    在这里插入图片描述
  • OK,细节基本就是这样,再具体的可以去看一下原来的论文。

实验结果

模型的潜力

  • better adaptability than full fine-tuning
  • a closer association between RGB and RGB+auxiliary modality tracking, as well as learning about the modal complementarities
  • 其实说白了就是更好的适应性和更好的学习能力

模型结果

在这里插入图片描述
在这里插入图片描述

OK,那么以上就是本篇文章的全部内容了,感兴趣的小伙伴可以点击开头的链接阅读原文哦

关于更多的文章,请看这里哦文章分享专栏 Paper sharing Blog

  • 22
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: "Mit-Cheetah-Note"是一种学习辅助工具,旨在提高学生的学习效率和效果。它结合了MIT(麻省理工学院)的学习方法和猎豹技术。 首先,MIT-Cheetah-Note采用了麻省理工学院的学习方法。这些方法包括主题导图,问题解决和概念联系等。主题导图是一种可视化的学习工具,帮助学生整理和理解知识点之间的关系。问题解决则鼓励学生通过提出问题来主动思考和深入理解知识。概念联系是通过将新知识与已有知识相结合,加深学生对知识的理解。 其次,这个学习工具还集成了猎豹技术。是一种训练阅效率和记忆力的技巧。通过使用猎豹技术,学生可以提高阅度和理解能力。这对于大量阅任务的学生来说尤其有用,如备考、论文写作等。 MIT-Cheetah-Note采用了数码笔和智能设备相结合的方式进行学习记录和储存。学生可以使用数码笔在纸上做笔记,并通过智能设备将这些笔记同步到云端。这样一来,学生可以随时随地访问他们的学习记录,从而更好地回顾和复习。 总而言之,MIT-Cheetah-Note是将麻省理工学院的学习方法和猎豹技术融入一体的学习辅助工具。它帮助学生提高学习效率和效果,并通过数字化技术方便学生的学习记录和辅助复习。 ### 回答2: Mit-Cheetah-Note 是一种人工智能语音助手,最初由麻省理工学院(MIT)研发。该技术基于深度学习和自然语言处理,在提供智能语音交互的同时,还具备类似于记事本的功能。 Mit-Cheetah-Note 可以用于多个方面,例如记录会议笔记、制定待办事项、管理日程安排等。用户可以通过语音指令来创建笔记,编辑文本内容或者提醒自己日程。Mit-Cheetah-Note 还能理解自然语言,对语音指令做出准确的响应,从而提高用户的工作效率。 与其他语音助手相比,Mit-Cheetah-Note 的特点是其记事本功能。用户可以通过语音输入方式,较快地记录需要记下的信息,而无需手动键入。此外,Mit-Cheetah-Note 还有一个方便的搜索功能,可通过关键词搜索用户之前创建的笔记内容,帮助用户快找到所需的信息。 Mit-Cheetah-Note 可以应用于多种场景,如商务会议、学术讲座、个人笔记等。它不仅可以减少记笔记的时间和工作量,还可以提高笔记的准确性和完整性。 总之,Mit-Cheetah-Note 是一种集成了语音助手和记事本功能的人工智能技术,使用户能够通过语音指令快记录信息和管理日程,提高工作效率。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值