Workshop主页:https://coda-dataset.github.io/w-coda2024/
概述
本次Workshop旨在研讨当前最先进的自动驾驶技术与完全可靠的智能自动驾驶代理之间的差距。近年来,多模态大模型(如GPT-4V)展示了其在多模态感知与理解方面前所未有的进步。然而,利用MLLMs来应对自动驾驶中复杂场景,特别是罕见但关键的难例场景,仍然是一个未解的挑战难题。本次Workshop旨在促进多模态大模型感知与理解、先进的AIGC技术在自动驾驶系统中的应用、端到端自动驾驶等方面的创新研究。
Workshop征稿
本次论文征稿关注自动驾驶场景多模态感知与理解、自动驾驶场景图像与视频生成、端到端自动驾驶、下一代工业级自动驾驶解决方案等主题,包括但不限于:
Corner case mining and generation for autonomous driving.
3D object detection and scene understanding.
Semantic occupancy prediction.
Weakly supervised learning for 3D Lidar and 2D images.
One/few/zero-shot learning for autonomous perception.
End-to-end autonomous driving systems with Large Multimodal Models.
Large Language Models techniques adaptable for self-driving systems.
Safety/explainability/robustness for end-to-end autonomous driving.
Domain adaptation and generalization for end-to-end autonomous driving.
投稿规则:
本次投稿将通过OpenReview平台实行双盲审稿,接收两种形式的投稿:
完整论文:论文篇幅在14页内,采用ECCV格式,参考文献和补充材料篇幅不限。被接收的论文将成为ECCV官方论文集的一部分,不允许重新提交到其他会议。
扩展摘要:论文篇幅为4页内,采用CVPR格式,参考文献和补充材料篇幅不限。被接收的论文不会被包含在ECCV官方论文集中,允许重新提交到其他的会议。
投稿入口:
完整论文:ECCV 2024 Workshop W-CODA | OpenReview
扩展摘要:ECCV 2024 Workshop W-CODA Abstract Paper Track | OpenReview
自动驾驶难例场景多模态理解与视频生成挑战赛
本次竞赛旨在提升多模态模型在自动驾驶中极端情况的感知与理解,并生成描绘这些极端情况的能力。我们提供丰厚的奖品和奖金,诚邀您的参与!
赛道一:自动驾驶难例场景感知与理解
本赛道关注多模态大模型(MLLMs)在自动驾驶难例场景的感知和理解能力,包括整体场景理解、区域理解和行驶建议等方面的能力,旨在推动更加可靠且可解释的自动驾驶代理的发展。
赛道二:自动驾驶难例场景视频生成
本赛道关注扩散模型生成多视角自动驾驶场景视频的能力。基于给定的自动驾驶场景3D几何结构,模型需要生成与之对应的自动驾驶场景视频,并保证时序一致性、多视角一致性、指定的分辨率和视频时长。
竞赛时间:2024年6月15日至2024年8月15日
奖项设置:冠军1000美元,亚军800美元,季军600美元(每赛道)
时间节点(AoE Time, UTC-12)
联系方式
如有任何关于Workshop和挑战赛的问题,请邮件联系:
w-coda2024@googlegroups.com。