Humanoid-Gym 开源人形机器人端到端强化学习训练框架!星动纪元联合清华大学、上海期智研究院发布!

系列文章目录

 


前言

Humanoid-Gym: Reinforcement Learning for Humanoid Robot with Zero-Shot Sim2Real Transfer

GitHub Repository: GitHub - roboterax/humanoid-gym: Humanoid-Gym: Reinforcement Learning for Humanoid Robot with Zero-Shot Sim2Real Transfer

7ccf7f46d2a24602a3861aaad0bf222a.png


 

一、介绍

Humanoid-Gym是一个基于Nvidia Isaac Gym的易于使用的强化学习(RL)框架,旨在训练仿人机器人的运动技能,强调从仿真到真实世界环境的零误差转移。Humanoid-Gym 还集成了一个从 Isaac Gym 到 Mujoco 的仿真到仿真框架,允许用户在不同的物理仿真中验证训练好的策略,以确保策略的鲁棒性和通用性。

RobotEra 的 XBot-S(身高 1.2 米的仿人机器人)和 XBot-L(身高 1.65 米的仿人机器人)在真实环境中对该代码库进行了验证,实现了模拟到现实的零距离传输。

用于评估的机器人硬件平台

11c346ec07be4f368bf96fe7443dda0b.png

 

二、仿真环境搭建

 5d04d886695842d198fca6e5656a06de.png

欢迎访问我们的 Humanoid-Gym!

Humanoid-Gym 是一个基于 Nvidia Isaac Gym 的易于使用的强化学习(RL)框架,旨在训练仿人机器人的运动技能,强调从仿真到真实环境的零误差转移。Humanoid-Gym 还集成了从 Isaac Gym 到 Mujoco 的仿真到仿真框架,允许用户在不同的物理仿真中验证训练好的策略,以确保策略的鲁棒性和通用性。

RobotEra 的 XBot-S(身高 1.2 米的仿人机器人)和 XBot-L(身高 1.65 米的仿人机器人)在真实环境中对该代码库进行了验证,实现了模拟到现实的零距离传输。

2.1 特点

1. 仿人机器人训练

该库为仿人机器人的训练提供全面的指导和脚本。Humanoid-Gym 具有针对仿人机器人的专门奖励,简化了模拟到真实转移的难度。在本资源库中,我们以 RobotEra 的 XBot-L 为主要示例。只需稍作调整,也可用于其他机器人。我们的资源包括设置、配置和执行。我们的目标是通过提供深入的训练和优化,让机器人为真实世界的运动做好充分准备。

全面的训练指南: 我们为训练过程的每个阶段提供详尽的演练。
逐步配置说明: 我们的指导清晰简洁,可确保高效的设置过程。
易于部署的执行脚本: 利用我们预先准备好的脚本,简化培训工作流程。

2. Sim2Sim 支持

sim2sim 管道,使您能够将训练有素的策略转移到高精度和精心设计的仿真环境中。获得机器人后,您就可以放心地在真实环境中部署经过 RL 训练的策略。

我们的仿真器设置,尤其是 Mujoco 的设置,都经过了精心调整,以接近真实世界的场景。这种细致的校准确保了仿真环境和真实世界环境中的性能密切吻合。这一改进使我们的仿真更可信,增强了我们对仿真适用于真实世界场景的信心。

3. 去噪世界模型学习(即将推出)

去噪世界模型学习(DWL)提出了一种先进的模拟到现实框架,将状态估计和系统识别融为一体。这种双方法确保机器人的学习和适应在现实世界中既实用又有效。

增强的仿真适应性: 优化机器人从仿真环境过渡到真实环境的技术。
改进的状态估计能力: 用于精确可靠的状态分析的先进工具。

2.2 安装

用 Python 3.8 生成一个新的 Python 虚拟环境,使用 

conda create -n myenv python=3.8

为获得最佳性能,我们建议使用 NVIDIA 驱动程序版本 525

sudo apt install nvidia-driver-525

。支持的最低驱动程序版本为 515。如果无法安装 525 版本,请确保系统至少有 515 版本,以维持基本功能。
使用 Cuda-11.7 安装 PyTorch 1.13:

conda install pytorch==1.13.1 torchvision==0.14.1 torchaudio==0.13.1 pytorch-cuda=11.7 -c pytorch -c nvidia

使用

conda install numpy=1.23

安装 numpy-1.23。
安装 Isaac Gym:
从以下地址下载并安装 Isaac Gym Preview 4

Isaac Gym - Preview Release | NVIDIA Developer.

cd isaacgym/python && pip install -e .

 使用

cd examples && python 1080_balls_of_solitude.py

运行示例。
有关故障排除,请参阅 isaacgym/docs/index.html。
安装 Humanoid-Gym:
克隆此软件源。

cd humanoid_gym && pip install -e .

2.3 使用指南

示例

# Launching PPO Policy Training for 'v1' Across 8192 Environments
# This command initiates the PPO algorithm-based training for the humanoid task.
python scripts/train.py --task=humanoid_ppo --run_name v1 --headless --num_envs 8192

# Evaluating the Trained PPO Policy 'v1'
# This command loads the 'v1' policy for performance assessment in its environment. 
# Additionally, it automatically exports a JIT model, suitable for deployment purposes.
python scripts/play.py --task=humanoid_ppo --run_name v1

# Implementing Simulation-to-Simulation Model Transformation
# This command facilitates a sim-to-sim transformation using exported 'v1' policy.
python scripts/sim2sim.py --load_model /path/to/logs/XBot_ppo/exported/policies/policy_1.pt

# Run our trained policy
python scripts/sim2sim.py --load_model /path/to/logs/XBot_ppo/exported/policies/policy_example.pt

1. 默认任务

humanoid_ppo

目的: 基准、PPO 策略、多坐标系低级控制
观察空间: 可变 (47 X H) 维度,其中 H 为坐标系帧数

eq?%5BO_%7Bt-H%7D%5Cldots%20O_t%5D
权限信息: 73 维
humanoid_dwl (即将推出)

2. PPO 策略

训练命令: 如需训练 PPO 策略,请执行

python humanoid/scripts/train.py --task=humanoid_ppo --load_run log_file_path --name run_name

运行训练有素的保单: 要部署训练有素的 PPO 政策,请使用

python humanoid/scripts/play.py --task=humanoid_ppo --load_run log_file_path --name run_name

默认情况下,将加载实验文件夹中最后一次运行的最新模型。不过,也可以通过调整训练配置中的 load_run 和 checkpoint 来选择其他运行迭代/模型。

3. Sim-to-sim

基于 Mujoco 的 Sim2Sim 部署: 使用下面的命令利用 Mujoco 执行仿真到仿真 (sim2sim) 部署:

python scripts/sim2sim.py --load_model /path/to/export/model.pt

4. 参数

CPU 和 GPU 使用情况: 要在 CPU 上运行仿真,请同时设置 --sim_device=cpu 和 --rl_device=cpu。对于 GPU 操作,请相应指定 --sim_device=cuda:{0,1,2...} 和 --rl_device={0,1,2...}。请注意,CUDA_VISIBLE_DEVICES 并不适用,因此必须匹配 --sim_device 和 --rl_device 设置。
无头操作: 包括 --headless,用于无渲染操作。
渲染控制: 按 "v "键可在训练过程中切换渲染。
策略位置: 训练后的策略保存在 humanoid/logs/<experiment_name>/<date_time>_<run_name>/model_<iteration>.pt 中。

5. 命令行参数

关于 RL 训练,请参考人形机器人/utils/helpers.py#L161。关于模拟到模拟过程,请参阅 humanoid/scripts/sim2sim.py#L169。

2.4 代码结构

每个环境都取决于一个 env 文件 (legged_robot.py) 和一个配置文件 (legged_robot_config.py)。后者包含两个类: LeggedRobotCfg(包含所有环境参数)和 LeggedRobotCfgPPO(表示所有训练参数)。
env 和 config 类都使用继承。
cfg 中指定的非零奖励标度会为总奖励贡献一个相应名称的函数。
任务必须使用 task_registry.register(name,EnvClass,EnvConfig,TrainConfig)进行注册。注册可以在 envs/__init__.py 中进行,也可以在本资源库之外进行。

2.5 添加新环境

基本环境 legged_robot 构建了一个粗糙地形运动任务。相应的配置没有指定机器人资产(URDF/ MJCF),也没有奖励标度。

如果需要添加新环境,请在 envs/ 目录下新建一个文件夹,并将配置文件命名为 <your_env>_config.py。新配置应继承现有环境配置。
如果提议使用新机器人
在 resources/ 文件夹中插入相应的资产。
在 cfg 文件中,设置资产路径,定义体名、默认关节位置和 PD 增益。指定所需的 train_cfg 和环境名称(python 类)。
在 train_cfg 中,设置 experiment_name 和 run_name。
必要时,在 <your_env>.py 中创建环境。继承现有环境,覆盖所需的功能和/或添加自己的奖励功能。
在人形机器人/envs/__init__.py 中注册环境。
根据需要修改或调整 cfg 或 cfg_train 中的其他参数。要移除奖励,请将其比例设为零。避免修改其他环境的参数!

2.6 故障排除

请注意以下情况:

# error
ImportError: libpython3.8.so.1.0: cannot open shared object file: No such file or directory

# solution
# set the correct path
export LD_LIBRARY_PATH="~/miniconda3/envs/your_env/lib:$LD_LIBRARY_PATH" 

# OR
sudo apt install libpython3.8

# error
AttributeError: module 'distutils' has no attribute 'version'

# solution
# install pytorch 1.12.0
conda install pytorch torchvision torchaudio cudatoolkit=11.3 -c pytorch

# error, results from libstdc++ version distributed with conda differing from the one used on your system to build Isaac Gym
ImportError: /home/roboterax/anaconda3/bin/../lib/libstdc++.so.6: version `GLIBCXX_3.4.20` not found (required by /home/roboterax/carbgym/python/isaacgym/_bindings/linux64/gym_36.so)

# solution
mkdir ${YOUR_CONDA_ENV}/lib/_unused
mv ${YOUR_CONDA_ENV}/lib/libstdc++* ${YOUR_CONDA_ENV}/lib/_unused

2.7 致谢

Humanoid-Gym 的实现依赖于机器人系统实验室(Robotic Systems Lab)创建的 legged_gym 和 rsl_rl 项目的资源。我们特别利用了他们研究中的 LeggedRobot 实现来增强我们的代码库。

2.8 引用

如果您使用本代码或其部分内容,请引用以下内容: 

@software{RobotEra2024Humanoid-Gym,
  author = {RobotEra},
  title = {{Humanoid-Gym: Reinforcement Learning for Humanoid Robot with Zero-Shot Sim2Real Transfer}},
  url = {https://github.com/roboterax/humanoid-gym},
  year = {2024}
}

 

 

  • 23
    点赞
  • 31
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
(韩国开源人形机器人)DARwIn-OP_ROBOTIS_v1.5.0 You can get the latest version at below link. https://sourceforge.net/projects/darwinop/ ===================================== DARwIn-OP v1.5.0 ===================================== >>> Date: 19 Mar 2012 >>> New functionality/features * FSR tutorial has been added. * FSR firmware added. >>> Changes * LinuxMotionTimer has been changed to use clock_nanosleep function. >>> Bug fixes * None. ===================================== DARwIn-OP v1.4.0 ===================================== >>> Date: 16 Jan 2012 >>> New functionality/features * None. >>> Changes * MX-28 firmware updated. * Stand-up motion changed. >>> Bug fixes * Cannot change the camera gain/exposure value from a web page bug fixed. * offset tuner 'set' command bug fixed. ===================================== DARwIn-OP v1.3.0 ===================================== >>> Date: 20 Sep 2011 >>> New functionality/features * offset_tuner added. * walk_tuner web page added. >>> Changes * CM-730 firmware updated. * roboplus support 4096 resolution(MX-28 firmware ver 27 or higher). * dxl_monitor : can change baudrate (control table addr 4) * Get-up motion changed. * read_write tutorial : left arm P gain value changed. (1 -> 8) >>> Bug fixes * None. ===================================== DARwIn-OP v1.2.0 ===================================== >>> Date: 01 Jun 2011 >>> New functionality/features * BulkRead instruction added. * Support FSR sensor. >>> Changes * Actuator Model name changed (RX-28M -> MX-28) * MX-28 firmware updated. * dxl_monitor : can change ID (control table addr 3) * Get-up motion changed. * Sensor calibration routine changed. (use standard deviation) * demo & walk_tuner share the config.ini file. (/darwin/Data/config.ini) >>> Bug fixes * action_editor : command line bug fixed. (can't input space or number) linux terminal backspace bug fixed. * walk_tuner : linux terminal backspace bug fixed. * read_write : at the start, torque off the right arm. * firmware installer : seperate firmware of the controller and actuator ===================================== DARwIn-OP v1.1.0 ===================================== >>> Date: 8 Apr 2011 >>> New functionality/features * firmware_installer : CM-730 & RX-28M firmware installer * CM-730 : Low battery alert added. >>> Changes * RX-28M resolution changed from 1024 to 4096. >>> Bug fixes * Action class : type casting bug fixed. * dxl_monitor : CM-730 control table dump bug fixed. * action_editor : command line first char backspace bug fixed. save command bug fixed. * walk_tuner : command line first char backspace bug fixed. * some minor bug fixed. ===================================== DARwIn-OP v1.0.1 ===================================== >>> Date: 28 Mar 2011 >>> Changes * LinuxCM730 : Move semaphore init code to constructor * action_script : Stand-up motion page number changed from 16 to 1. * demo : at the start of soccer mode, reset the gyro sensor calibration * Some walking parameters changed. >>> Bug fixes * action_editor : page 255 access problem fixed. * Walking : Y move amplitude bug fixed. ===================================== DARwIn-OP v1.0.0 ===================================== >>> Date: 1 Feb 2011 >>> New functionality/features * First released. >>> Changes * First released. >>> Bug fixes * First released.
人形机器人-v2是一种具有高度类似于人类的外形和动作能力的机器人。相比于v1版本,v2版本在外观和功能上有了显著的改进。 首先,在外观方面,人形机器人-v2更加逼真。它的外形设计更加符合人类身体比例,肌肉线条也更加自然。面部特征也得到了更好的细化和表达能力,使得人们可以更容易地与其交流和互动。 其次,在动作能力方面,人形机器人-v2具备更加精准、灵活的运动。它可以模拟人类各种日常动作,并可以自由地行走、站立和坐下。这使得它能够更好地适应各种环境,并执行更复杂的任务,如拾取物品、搬运重物等。 另外,人形机器人-v2在感知和认知能力上也有了显著的提升。它通过使用先进的传感器技术,能够更准确地感知周围环境的信息,包括声音、视觉和触觉等。这使得它可以更好地与人类进行交流,并作出更精确的反应。 此外,人形机器人-v2还具备自主学习和智能决策的能力。它可以通过人工智能技术来不断学习和优化自己的行为,以更好地适应不同的任务和环境。这使得它能够更加灵活、智能地完成各种工作。 综上所述,人形机器人-v2在外观、动作能力、感知认知和智能决策等方面都有了显著的提升。它的出现将为人类带来更多的便利和可能性,同时也将在各行各业中发挥重要作用,如医疗护理、工业生产和娱乐等领域。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值