- 博客(5)
- 收藏
- 关注
原创 【机器人】首次提出!CMU仅用RGB摄像头,远程操控人形机器人,实现人机合一
【日记导读】本篇论文的中心思想是提出了一种名为H2O的框架,它利用强化学习实现了人类动作到人形机器人的实时、全身远程操控。
2024-04-08 11:51:50 1995
原创 【机器人】MIT、UCLA联合发布3D-VLA,重塑机器人的世界观,打造未来智能生活
本文提出了3D-VLA,一种新型的3D视觉-语言-行动生成世界模型,旨在通过整合3D感知、推理和行动,显著提升机器人在物理世界中的交互能力。以往的视觉-语言-行动(VLA)模型(RT2, PaLM-E)主要依赖于2D输入,忽略了与3D物理世界的广泛联系,且在行动预测上缺乏对世界动态及其与行动关系的深入理解。相比之下,人类能够借助内在的3D世界模型来模拟未来事件,从而更好地规划行动。3D-VLA通过引入一个新的具身基础模型家族,无缝连接3D感知、推理和行动,解决了这些问题。具体来说,3D-VLA建立在3D
2024-04-03 11:51:29 2092
原创 【机器人】用LLM让谷歌机器人表达丰富的肢体语言GenEM技术让机器化身为社交达人
GenEM利用LLMs中丰富的社会背景和它们根据指令或用户偏好生成动作的能力,来生成适应性强且可组合的机器人动作代码。这种方法使用少量样本的链式思维提示(few-shot chain-of-thought prompting),将人类语言指令转换为使用机器人可用和学习到的技能API的控制代码。【日记导读】谷歌机器人提出的Generative Expressive Motion(GenEM)方法,为了使机器人能够模仿人类的这种非言语交流能力。代码和详细论文讲解在gzh:AI机器人日记。
2024-03-31 17:10:12 348
原创 【机器人】谷歌机器人从人类反馈中微调大模型来提高机器人执行任务的适应性
这篇文章探讨了如何通过人类反馈来加速大语言模型(LLMs)输出正确的机器人策略代码的学习过程。这项研究的重点是提高机器人执行任务时的适应性和可教学性,特别是在非专家通过自然语言指导机器人时。
2024-03-29 17:51:06 784
原创 【机器人】UIUC、北大、亚马逊提出基于动作的场景图,让机器人理解和操控未知环境
在未知环境中如何让机器人自主探索并完成复杂任务?比如在视频开头机器人在一个全新的场景中,人类的指令要求是帮我准备一下早餐,一开始机器人不知道桌面上有什么东西可以准备的,所以它需要自主探索环境并构建一个能够捕捉环境结构的场景图(ACSG)。
2024-03-29 17:07:48 252
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人