NTIRE 2024双目/光场图像超分辨率挑战赛正式开赛 | 验证平台已上线!

关注公众号,发现CV技术之美

68216fc97675d0da4dbda4f2ca57af8a.png

双目图像超分辨率挑战赛(Stereo Image Super-Resolution Challenge)和光场图像超分辨率挑战赛 (Light Field Image Super-Resolution Challenge)将分别作为 NTIRE 研讨会的一部分与CVPR 2023一起举办。NTIRE 全称 New Trends in Image Restoration and Enhancement,是近年来计算机视觉中图像复原领域最具影响力的一项全球性赛事。

大赛背景

随着相机制造技术的不断进步,双目/光场成像技术日益普及,广泛应用于手机、自动驾驶、机器人、VR/AR等领域。由于双目和光场相机可以在不同视角记录场景图像,因此可以通过利用视角间的互补信息来提高图像的分辨率。双目/光场图像超分辨旨在从低分辨率的双目/光场图像中重建出高分辨率的双目/光场图像。

我们联合NTIRE研讨会,为双目和光场领域组织了一场以提高图像分辨率为重点的挑战赛,以突出双目/光场图像超分辨面临的具体挑战和研究问题。这次挑战赛为研究人员提供了一个分享专业知识、提升算法性能的机会,旨在促进双目/光场图像超分辨领域的发展。

大赛介绍

这次挑战赛的目的是从低分辨率(LR)双目/光场图像中重建出高分辨率(HR)双目/光场图像。在模型开发阶段,将发布训练集和验证集。参赛者可利用训练集进行模型训练,并将验证集上的超分辨结果提交至CodaLab服务器进行评估。在测试阶段,竞赛组织者将发布测试集。参赛者可利用训练好的模型对低分辨率测试图像进行超分辨,并提交超分辨后的图像,由组织者统一进行定量评估与排名。

大赛官网

  • NTIRE官网:https://cvlai.net/ntire/2024/

  • 双目挑战赛网址:https://codalab.lisn.upsaclay.fr/competitions/17245

  • 光场挑战赛网址:https://codalab.lisn.upsaclay.fr/competitions/17265

  • 双目挑战赛Github仓库:https://github.com/The-Learning-And-Vision-Atelier-LAVA/Stereo-Image-SR/tree/NTIRE2024

  • 光场挑战赛Github仓库:https://github.com/The-Learning-And-Vision-Atelier-LAVA/LF-Image-SR/tree/NTIRE2024

赛程安排(以官网信息为准)

  • 2024-01-24: 开放训练集和验证集

  • 2024-01-30: 开放在线验证平台

  • 2024-03-07: 开放测试集,关闭验证平台

  • 2024-03-14: 测试结果提交截止日期

  • 2024-03-15: 算法文档/代码/模型提交截止日期

  • 2024-03-17: 公布比赛成绩及排名

  • 2024-04-01: 论文提交截止日期

  • 2024-04-08: 接收论文最终版提交截止日期

  • 2024-06-18 (TBU): CVPR Workshop日期

大赛要求

  1. 本次挑战赛面向全社会开放,个人、高等院校、科研单位、企业等人员均可报名参赛。每位参赛者只能加入1支队伍,每支队伍最多不超过6人,每支队伍只能提交一种算法进行最终排名。

  2. 不允许使用外部数据(包括提供给选手的验证集)进行训练或预训练,不允许使用预训练模型。

大赛奖励

发表论文是可选的,不会成为参加挑战赛或获奖的条件。本次挑战赛将邀请排名靠前的参赛者向NTIRE Workshop提交最多8页的论文,以供同行评审。论文录用后将发表在CVPR 2024 Workshop论文集中。

排名最高的参赛者和为比赛贡献新颖方法的参赛者将被邀请成为挑战赛报告论文的共同作者,该论文将在CVPR 2024 Workshop集中发表。

本次比赛的赞助商详见NTIRE 2024官网,如有额外的经济奖励和旅行补助将由NTIRE官方统一提供和发放。

大赛组织者

双目挑战赛:

Longguang Wang (wanglongguang15@nudt.edu.cn)
Yulan Guo (yulan.guo@nudt.edu.cn)
Yingqian Wang (wangyingqian16@nudt.edu.cn)
Juncheng Li (junchengli@shu.edu.cn)
Zhi Jin (jinzh26@mail.sysu.edu.cn)
Shuhang Gu (shuhanggu@gmail.com)
Radu Timofte (Radu.Timofte@vision.ee.ethz.ch)

光场挑战赛:

Yingqian Wang (wangyingqian16@nudt.edu.cn)
Longguang Wang (wanglongguang15@nudt.edu.cn)
Zhengyu Liang (zyliang@nudt.edu.cn)
Jungang Yang (yangjungang@nudt.edu.cn)
Radu Timofte (Radu.Timofte@vision.ee.ethz.ch)
Yulan Guo (yulan.guo@nudt.edu.cn)

大赛交流群

6a8d0eaede43bab5ce2fe47dc021836e.png

2003942270c0f51a9f3acd0938d9c518.png

欢迎大家积极参赛,如群满或二维码到期请通过邮箱与我们联系加群!

30ba33be3d9ab5ef691937b8072954be.jpeg

END

欢迎加入「超分辨率交流群👇备注:SR

e4d713c06b2fd15285565243304c62bb.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在超分辨率领域,有几种常用的方法和理论基础。其中一种方法是插值方法,它通过对低分辨率图像进行插值来得到高分辨率图像。另一种方法是基于稀疏表示(字典学习)的方法,它通过学习低分辨率图像与高分辨率图像之间的稀疏表示关系来进行超分辨率复原。还有一种方法是基于局部嵌入(Neighbor Embedding)的方法,它利用低分辨率图像中的局部信息来进行超分辨率复原。此外,还有Example-Based的方法,它通过学习一组训练样本来进行超分辨率复原。 在超分辨率领域的理论基础方面,有一些重要的研究现状。一篇论文《VDSR Accurate Image Super-Resolution Using Very Deep Convolutional Networks, CVPR2016》提出了全局残差引入SR的方法,通过学习高分辨率图像和低分辨率图像之间的高频部分残差来进行超分辨率复原。这种残差网络结构的思想在后来的深度学习超分辨率方法中产生了深远影响。另一篇论文《SRGAN(SRResNet) Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network, CVPR2017》将生成对抗网络应用于超分辨率复原问题,利用感知损失和对抗损失来提升恢复图像的真实感。还有一篇冠军方案《EDSR Enhanced Deep Residual Networks for Single Image Super-Resolution, CVPR2017》在NTIRE2017超分辨率挑战赛上获得了冠军,该方案通过去除多余的模块,使用增强的ResNet结构和L1损失函数来提升结果质量。 这些方法和理论基础提供了超分辨率领域的基础知识,并为超分辨率复原技术的研究和应用提供了重要的参考。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值