【复现论文】Looking here or there? Gaze Following in 360-Degree Images

论文关注360度图像中的视线跟随任务,提出了一种双路径框架来处理图像投影引起的失真。作者构建了GazeFollow360数据集,并展示了框架的有效性。尽管复现实验结果略逊于原文,但仍在同一量级。目前代码未开源,作者期待社区的反馈和官方的进一步开源支持。
摘要由CSDN通过智能技术生成

【复现论文】Looking here or there? Gaze Following in 360-Degree Images

论文:Looking here or there? Gaze Following in 360-Degree Images

论文链接:Looking here or there? Gaze Following in 360-Degree Images

复现github链接:Rao2000/gazefollow360: The paper “Looking here or there? Gaze Following in 360-Degree Images” implementing with Pytorch (github.com)

知乎链接: link

掘金链接:link

1.论文主要内容

在本文中,研究了一项新任务,即 360 度图像中的视线方向,并为这项新任务收集了一个新的大规模数据集“GazeFollow360”。论文指出这项新任务的主要挑战是由于 360 度图像中球体到平面投影引起的失真,人类受试者的注视目标和他/她的视线之间的不匹配。为了解决这个问题,我们提出了一个双路径框架,该框架由在 3D 球体空间中建模的视线引导,而不是简单地在 2D 图像平面坐标中,以检测局部区域(此处)和远处区域(那里)内的注视目标平行。论文的框架在GazeFollow360上的强大性能验证了它在理解真实3D世界中视线行为方面的潜力。

主要贡献可以分为三个部分:

(1)第一份在360展开图上研究gaze following的工作

(2) 建立了一个10058张图片的数据集

(3)提出了一个双支路的框架解决360场景下的gaze following
在这里插入图片描述

2.复现工作

在发邮箱给论文一作,询问其是否开源代码无果后,尝试根据论文的信息去复现代码。

我简单的复现了一下论文,得到双支路模型在test dataset的实验结果

论文中的实验结果:

AUCsphere dist
test dataset0.93500.6067

我复现的实验结果:

pixel distnorm distAUCsphere dist
test dataset443.53460.15840.86730.6157

容易看出,我复现的实验结果是比论文实验结果更差的,但是在同一个量级上。同时,在其他公开模型方法上,比如论文Detecting Attended Visual Targets in Video,也很难复现出论文的实验结果。

3.期望

最后欢迎大家指正我的复现结果,也期待官方早点开源吧。

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值