自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 【机器人】首次提出!CMU仅用RGB摄像头,远程操控人形机器人,实现人机合一

【日记导读】本篇论文的中心思想是提出了一种名为H2O的框架,它利用强化学习实现了人类动作到人形机器人的实时、全身远程操控。

2024-04-08 11:51:50 1995

原创 【机器人】MIT、UCLA联合发布3D-VLA,重塑机器人的世界观,打造未来智能生活

本文提出了3D-VLA,一种新型的3D视觉-语言-行动生成世界模型,旨在通过整合3D感知、推理和行动,显著提升机器人在物理世界中的交互能力。以往的视觉-语言-行动(VLA)模型(RT2, PaLM-E)主要依赖于2D输入,忽略了与3D物理世界的广泛联系,且在行动预测上缺乏对世界动态及其与行动关系的深入理解。相比之下,人类能够借助内在的3D世界模型来模拟未来事件,从而更好地规划行动。3D-VLA通过引入一个新的具身基础模型家族,无缝连接3D感知、推理和行动,解决了这些问题。具体来说,3D-VLA建立在3D

2024-04-03 11:51:29 2092

原创 【机器人】用LLM让谷歌机器人表达丰富的肢体语言GenEM技术让机器化身为社交达人

GenEM利用LLMs中丰富的社会背景和它们根据指令或用户偏好生成动作的能力,来生成适应性强且可组合的机器人动作代码。这种方法使用少量样本的链式思维提示(few-shot chain-of-thought prompting),将人类语言指令转换为使用机器人可用和学习到的技能API的控制代码。【日记导读】谷歌机器人提出的Generative Expressive Motion(GenEM)方法,为了使机器人能够模仿人类的这种非言语交流能力。代码和详细论文讲解在gzh:AI机器人日记。

2024-03-31 17:10:12 348

原创 【机器人】谷歌机器人从人类反馈中微调大模型来提高机器人执行任务的适应性

这篇文章探讨了如何通过人类反馈来加速大语言模型(LLMs)输出正确的机器人策略代码的学习过程。这项研究的重点是提高机器人执行任务时的适应性和可教学性,特别是在非专家通过自然语言指导机器人时。

2024-03-29 17:51:06 784

原创 【机器人】UIUC、北大、亚马逊提出基于动作的场景图,让机器人理解和操控未知环境

在未知环境中如何让机器人自主探索并完成复杂任务?比如在视频开头机器人在一个全新的场景中,人类的指令要求是帮我准备一下早餐,一开始机器人不知道桌面上有什么东西可以准备的,所以它需要自主探索环境并构建一个能够捕捉环境结构的场景图(ACSG)。

2024-03-29 17:07:48 252

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除