基于视觉的3D占用网络汇总

综述文章:https://arxiv.org/pdf/2405.02595

基于视觉的3D占用预测方法的时间线概述:

基于视觉的3D占用预测方法的时间线概述

自动驾驶中基于视觉的3D占用预测的分层结构分类

自动驾驶中基于视觉的3D占用预测的分层结构分类

2023年的方法:

TPVFormer, OccDepth, SimpleOccupancy, StereoScene, OccupancyM3D, VoxFormer, OccFormer, OVO, UniOcc, MiLO, Multi-Scale Occ, PanoOcc, Symphonies, FB-OCC, UniWorld, PointOcc, RenderOcc, FlashOcc, OccWorld, DepthSSC, OctreeOcc, COTR, SGN, OccNeRF, Vampire, RadOcc, SparseOcc

2024年的方法:

SelfOcc, S2TPVFormer, POP-3D, UniVision, InverseMatrixVT3D, OccFlowNet, CoHFF, OccTransformer, FastOcc, MonoOcc

论文汇总:

TPVFormer: An academic alternative to Tesla’s Occupancy Network

论文地址:https://arxiv.org/pdf/2302.07817
代码地址:https://github.com/wzzheng/TPVFormer

OccDepth: A Depth-Aware Method for 3D Semantic Scene Completion

论文地址:https://arxiv.org/abs/2302.13540
代码地址: https://github.com/megvii-research/OccDepth

SimpleOccupancy: A Simple Framework for 3D Occupancy Estimation in Autonomous Driving

论文地址:https://arxiv.org/pdf/2303.10076
代码地址:https://github.com/GANWANSHUI/SimpleOccupancy

StereoScene: Bridging Stereo Geometry and BEV Representation with Reliable Mutual Interaction for Semantic Scene Completion

论文地址:https://arxiv.org/pdf/2303.13959v3
代码地址:https://github.com/Arlo0o/StereoScene

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值