- 博客(4)
- 资源 (8)
- 收藏
- 关注
原创 Learning a Decentralized Multi-arm Motion Planner基于强化学习的多机械臂运动规划算法
Abstract我们提出了一种闭环多臂运动规划器,该规划器具有可扩展性和灵活性。传统的多臂机器人系统依赖于集中的运动规划算法,其运行时间往往随机器人数量呈指数级增长,因此,无法用开环控制来处理动态环境。在本文中,我们利用多智能体强化学习来解决这一问题。在多臂系统中,通过观察机器人的工作空间状态和目标末端执行器姿态,训练一种分散策略来控制其达到目标末端执行器姿态。该策略是使用软演员评论家和来自基于采样的运动规划算法(即BiRRT)的专家演示来训练的。利用经典的规划算法,我们可以提高强化学习算法的学习效率,.
2020-12-25 21:57:51 1922 1
原创 Learning to Rearrange Deformable Cables, Fabrics, and Bags with Goal-Conditioned Transporter Network
排列和操作可变形的物体,如电缆、织物和包袋是一项长期的挑战。在机器人操纵中,可变形体的复杂动力学和高维构型空间,相比于刚性物体,不仅使得多步骤的操作变得困难,甚至目标的规范也变得困难。柔性目标不能像刚性物体那样容易指定姿态,并可能涉及复杂的相对的空间关系,如 “把物品放在袋子里”。 在本项目中,我们开发了一套使用1D、2D和3D柔性物体的模拟基准,包括涉及基于图像的目标状态调节和多步骤可变形操作的任务。我们提出将目标状态嵌入到Transporter网络中,这是一个最近提出的用于学习机器人操作的模型架构,它.
2020-12-25 19:20:27 456 2
转载 QT-Opt: Scalable Deep Reinforcement Learning for Vision-Based Robotic Manipulation
在机器人交互的典型问题机器人抓取任务中,传统方法通常采用单向执行模式,而不会对抓取结果进行反馈。而在本文介绍的获得 CoRL 2018 最佳系统论文奖的研究 QT-Opt 中,来自伯克利和谷歌大脑的研究者提出了视觉闭环形式的机器人抓取方法,能通过自监督进行反馈来修正抓取动作,这其实和人类抓取物体的方式很相似。第一下没抓到?没关系,挪挪手指就好;东西堆在一起抓不到?没关系,一巴掌打散再说。此外,该方法还有设置简单、抗干扰、泛化性强的优点。Jeff Dean 也推荐了这篇论文,赞叹道「We are start.
2020-12-26 10:10:50 1042 1
原创 conda环境的复制与安装(生成.yaml文件)
conda导出已有环境,环境会被保存在environment.yaml文件中。conda env export > environment.yaml当我们想再次创建该环境,或根据别人提供的.yaml文件复现环境时,就可以通过下面的命令来复现安装环境了。conda env create -f environment.yaml注:.yaml文件移植过来的环境只是安装了你原来环境里用conda install等命令直接安装的包,你用pip之类装的东西没有移植过来,需要你重新安装。...
2020-12-03 22:22:30 16576 1
Solidwork入门教程与3D打印.rar
2020-11-21
自控原理基础实验MATLAB上机实验
2020-11-20
机房预约系统(C++实现)
2020-11-18
基于STL的演讲比赛流程管理系统
2020-11-18
基于多态的职工管理系统(C++实现)
2020-11-18
通讯录管理系统(C++实现)
2020-11-18
数值分析matlab实现(含注释)
2020-11-17
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人