大模型机器人系列
文章平均质量分 95
国内外典型的大模型机器人的原理与实践,比如斯坦福机器人Mobile Aloha的原理、复现、二次开发
v_JULY_v
七月在线创始人兼CEO,结构之法算法之道blog之博主
展开
-
Google视觉机器人超级汇总:从RT、RT-2到AutoRT/SARA-RT/RT-Trajectory、RT-H
随着对视觉语言机器人研究的深入,发现Google的工作很值得深挖,比如RT-2想到很多工作都是站在Google的肩上做产品和应用,Google真是科技进步的核心推动力,做了大量大模型的基础设施,服故有了本文,单独汇总Google在机器人领域的重大结果、进展。原创 2024-04-05 14:20:18 · 2332 阅读 · 1 评论 -
带RL的机器人:从类似预测下一个token的伯克利Digit到CMU 18万机器人
本工作为语言交互的机器人操作策略提供了一个新颖的基于现有开源 VLMs 的框架,使用简单微调就能实现出色的效果。RoboFlamingo 为机器人技术研究者提供了一个强大的开源框架,能够更容易地发挥开源 VLMs 的潜能。工作中丰富的实验结果或许可以为机器人技术的实际应用提供宝贵的经验和数据,有助于未来的研究和技术发展参考文献:第二部分// 待更。原创 2024-01-28 00:00:55 · 4018 阅读 · 1 评论 -
逐行解读ACT:斯坦福Mobile Aloha之动作分块算法ACT的代码剖析、训练部署
本文最早是属于《斯坦福Mobile ALOHA背后的关键技术:动作分块ACT算法的原理解析》的第二、第三部分,涉及到动作分块ACT的代码剖析与部署训练,但因为想把ACT的代码逐行剖析的更细致些,加之为避免上一篇文章太过于长,故把动作分块ACT的代码剖析与部署实践这块独立出来成本文。原创 2024-01-13 11:06:53 · 5639 阅读 · 14 评论 -
UMI——斯坦福刷盘机器人:从手持夹持器到动作预测Diffusion Policy(含代码解读)
如下图所示a)具有不同类型动作表示的显式策略(b)隐式策略学习以动作和观察为条件的能量函数,并对最小化能量景观的动作进行优化(c)扩散策略通过学习的梯度场将噪声细化为动作。这种表述提供了稳定的训练,允许学习到的策略准确地建模为多模态动作分布,并容纳高维动作序列进一步,所谓扩散策略,是指将机器人的视觉运动策略表示为条件去噪扩散过程来生成机器人行为的新方法扩散策略学习动作-分布评分函数的梯度即该策略不是直接输出一个动作,而是以视觉观察为条件,对K次去噪迭代推断“动作-得分梯度”(原创 2024-01-10 23:59:28 · 4786 阅读 · 3 评论 -
斯坦福炒虾机器人Mobile ALOHA的关键技术:动作分块算法ACT的原理解析
根据上一篇文章《大模型机器人发展史:从VoxPoser、RT2到斯坦福Mobile ALOHA、Google机器人》可知,斯坦福Mobile ALOHA在其发布的论文中提到相当于Mobile ALOHA涉及到了这三大关键技术:ACT、Diffusion Policy、VINN,故本文分三个部分一一阐述。原创 2024-01-08 15:52:50 · 8558 阅读 · 2 评论 -
模仿学习的集中爆发:从Dobb·E、Gello到斯坦福Mobile ALOHA/UMI、FMB、DexCap
且一年前,因为对ChatGPT背后技术原理巨大的「好奇心」,加之极高的「分享热情」、以及想写一篇关于其原理最全面 最深入 最细致文章的「决心」,彻底改变了过去一年的轨迹博客证明了技术研究能力,课程证明了教学教研能力,项目证明了带队开发能力说干就干。原创 2024-01-07 12:02:12 · 5915 阅读 · 6 评论