最近无论是斯坦福机器人炒虾,还是特斯拉官宣机器人进厂,都赚足了眼球,实力证明了具身智能的火爆。
先不说具身智能是实现AGI的关键环节,也是未来研究的重要方向,我们就从发论文的角度来看,今年的各大顶会,比如CVPR,具身智能就排了热门研究领域前三,可见入局具身智能早已成了必然趋势。
目前具身智能主要四个研究目标:具身感知、具身互动、具身智能体、虚拟到现实。如果大家想冲顶会,建议从这四个角度入手,我这边也整理了20篇具身智能顶会开源论文给各位参考,都是2024年最新,包括CVPR、ECCV、ICML等。
另外我还准备了40多个具身智能经典数据集,以及规模达到三百万的具身大规模数据集,帮大家搞定数据太贵/不够的问题。
论文原文+开源代码需要的同学看文末
具身感知
Embodiedscan: A holistic multi-modal 3d perception suite towards embodied ai
方法:EmbodiedScan是一个新的多模态3D感知数据集,提供了丰富的室内场景注释,支持自我中心视角下的语言基础的全面3D场景理解。基于此数据集,论文提出了Embodied Perceptron框架,用于处理多视图输入,并在3D感知和语言基础任务上表现出色。