[RL robotic 环境] - [Robosuite](1)

RoboSuite
RobotSuite github

介绍

主要包含Modeling APIsSimulation APIs两部分。Modeling部分定义了环境和任务。 Simulation部分提供了policy。

  1. 其中Modeling APIs包含三部分: 机器人模型,物体模型和arena(场景)。
    RobotModel包含了 机器人模型和对应的抓手模型;Object Mode包含了物体模型;Arena定义了机器人的工作空间和场景。这三个会生成一个MJCF文件,然后使用mujoco引擎生成仿真环境。
  2. Environment APIs包含了上述的Modeling APIs(Simulation Model),以及机器人控制的输入(获取action),获取环境的观测值作为输出(提供observation)。 作为直接与agent进行交互的API,是OpenAI Gym类型的类。
    Environment 一方面可以调用已经写好的标准任务,也可以通过一系列configure来配置环境。
  • Environment环境是模块化结构,能够快速改变机器人的结构(机械结构和控制方式),控制器的类型。 每一个environment都有自己的MJCF模型,通过_load_model来生成每个任务的实例。
  • Task类 将 placement_initializer 作为输入,决定了 task中不同类的初始化。
    在这里插入图片描述
  1. Robot 包含 RobotModel, GripperModel 和 Controller 三个类。
  • Robot包含8中机器人,7种抓手和6种控制器。
  • 每一个机器人都有一个独一无二的ID,相同种类的机器人可以在仿真器中同时仿真。
    在这里插入图片描述
    1.1 PandaGripper: 7自由度,平行抓手(手指较小)。
    1.2 Sawyer: 7自由度,平行抓手(手指较长)。
    1.3 IIWA: KUKA工业级机器人,7自由度,传动力最大。 抓手仿人两手指。
    1.4 Jaco:KInova 7自由度,3手指抓手。
    1.5 Kinova3: 7自由度,平行抓手。
    1.6 UR5e:6自由度机器人,平行抓手。
    1.7 Baxter: 双手机器人。

controller mode
基于位置的控制,输入量为相对移动。

Objects 比如 盒子或者罐子,通过 MujocoObject来进行控制,一方面可以通过 MujocoXMLObject生成, 另一方面可以通过 MujocoGeneratedObject来生成。

  1. sensors 用于生成观测值。 机器人的关节位置和速度并不在sensor类中,而是直接作为robot类的属性 _joint_positions 和 _joint_velocities。
  2. I/O devices: 定义了用户通过teleoperator来控制机器人。

Environments

tasks

  1. Block Lifting: cube举起一定高度。
  2. Block Stacking: 多个cube进行堆叠。
  3. Pick-and-Place: 将对应的物体放在对应的箱子中。
  4. Nut Assembly: 装配。
  5. Door Opening: 开门。
  6. Table Wiping: 桌子表面擦拭。
  7. Two-Arm Lifting: 两个手臂提取壶。
  8. Two Arm Peg-In-Hole。
  9. Two-Arm HandOver.

documentation

Installation

对应MUJOCO 200.

sudo apt install curl git libgl1-mesa-dev libgl1-mesa-glx libglew-dev \
         libosmesa6-dev software-properties-common net-tools unzip vim \
         virtualenv wget xpra xserver-xorg-dev libglfw3-dev patchelf

pip install robosuite

QuickStart

import numpy as np
import robosuite as suite

# create environment instance
env = suite.make(
    env_name="Lift", # try with other tasks like "Stack" and "Door"
    robots="Panda",  # try with other robots like "Sawyer" and "Jaco"
    has_renderer=True,
    has_offscreen_renderer=False,
    use_camera_obs=False,
)

# reset the environment
env.reset()

# get action limits
low, high = env.action_spec

for i in range(1000):
    action = np.random.randn(env.robots[0].dof) # sample random action
    obs, reward, done, info = env.step(action)  # take action in the environment
    env.render()  # render on display

Modules

Mujoco Model

MujocoModel类是其他类的基础类。

Robot Model

RobotModel用于构建机器人。

Manipulator Model

拓展自 RobotModel。

Gripper Model

作为Manipulator的一部分。

Object Model

Arena

Task

包含 Robot Model, Arena, Object Model。

Build tasks by standard components

environment

robosuite.ALL_ENVIRONMENTS
'Lift', 
'Stack', 
'NutAssembly', 
'NutAssemblySingle', 
'NutAssemblySquare', 
'NutAssemblyRound', 
'PickPlace', 
'PickPlaceSingle', 
'PickPlaceMilk', 
'PickPlaceBread', 
'PickPlaceCereal', 
'PickPlaceCan', 

'Door', 

'Wipe', 

'TwoArmLift', 
'TwoArmPegInHole', 
'TwoArmHandover'

robot

robosuite.ALL_ROBOTS
'Sawyer', 
'Baxter', 
'Panda', 
'Jaco', 
'Kinova3', 
'IIWA', 
'UR5e'

controller

robosuite.ALL_CONTROLLERS
'JOINT_VELOCITY', 
'JOINT_TORQUE', 
'JOINT_POSITION', 
'OSC_POSITION', 
'OSC_POSE', 
'IK_POSE'

gripper

robosuite.ALL_GRIPPERS
'RethinkGripper', 
'PandaGripper', 
'JacoThreeFingerGripper', 
'JacoThreeFingerDexterousGripper', 
'WipingGripper', 
'Robotiq85Gripper', 
'Robotiq140Gripper', 
'RobotiqThreeFingerGripper', 
'RobotiqThreeFingerDexterousGripper', 
None

env

import robosuite as suite
from robosuite import load_controller_config
from robosuite.wrappers import GymWrapper    # gym

config = load_controller_config(default_controller='JOINT_POSITION')

# first we build the grasp task

env = suite.make(
    env_name='PickPlaceCan',
    # env_configuration=,
    robots='Jaco',
    gripper_types='PandaGripper',
    controller_configs=config,
    
    has_renderer=True,
    has_offscreen_renderer=False,
    ignore_done=True,
    use_camera_obs=False,
    use_object_obs=True,
    
    horizon=10000,
    reward_shaping=True,  # use dense rewards
    control_freq=20)

parameters

robots and objects
env.robots[0] 
# 单机械臂环境中只有一个机器人,所以index=0 | 
# 也就是说 robosuite中可以实现 双机械臂控制, 
# 对应任务 'TwoArmLift', 'TwoArmPegInHole', 'TwoArmHandover'
# _joint 和 _hand 分别对应 机械臂和hand 
# gripper表示抓手 

!!!!  hand 并不是 end-effector 
env.robot[0] 没有找到关于gripper的状态。 environment返回的状态可以在下一部分获得。


# --------action space----------------
print("action dim", env.robots[0].action_dim)
>>> action dim 8
print("action limits", env.robots[0].action_limits)
>>> action limits (array([-1., -1., -1., -1., -1., -1., -1., -1.]), array([1., 1., 1., 1., 1., 1., 1., 1.])) # 动作有8个自由度, 7个机械臂 + 1个gripper,并且动作范围都在 [-1,1]之间

# --------observation space------------ 
# #### ------joint state---------------
print("robot joints", env.robots[0].robot_joints)
>>> robot joints ['robot0_j2s7s300_joint_1', 'robot0_j2s7s300_joint_2', 'robot0_j2s7s300_joint_3', 'robot0_j2s7s300_joint_4', 'robot0_j2s7s300_joint_5', 'robot0_j2s7s300_joint_6', 'robot0_j2s7s300_joint_7']
print("joint pos", env.robots[0]._joint_positions)
>>> joint pos [3.17274829e+00 3.67605222e+00 1.99827716e-03 1.12296742e+00
 3.16228320e-02 3.76672808e+00 3.13208957e+00] # joint pos 最大范围是 [-2*pi,2*pi]
print("joint vel", env.robots[0]._joint_velocities)
>>> joint vel [0. 0. 0. 0. 0. 0. 0.]

# ### --------hand state---------------
print("hand pos", env.robots[0]._hand_pos)
>>> hand pos [ 0.37779775 -0.00454982  0.26592814]
print("hand orn", env.robots[0]._hand_orn)
>>> hand orn [[ 0.99918625 -0.0160639  -0.03699711]
 [-0.01675014 -0.99969197 -0.01831366]
 [-0.03669152  0.01891847 -0.99914755]]  # 旋转矩阵法
print("hand pose", env.robots[0]._hand_pose) 
>>> hand pose [[ 0.99918625 -0.0160639  -0.03699711  0.37779775]
 [-0.01675014 -0.99969197 -0.01831366 -0.00454982]
 [-0.03669152  0.01891847 -0.99914755  0.26592814]
 [ 0.          0.          0.          1.        ]] # 等于 pos + orn
print("hand quat", env.robots[0]._hand_quat) 
>>> hand quat [ 0.9997532  -0.00820553 -0.0184267   0.00931033] # 四元数表示

print("hand vel", env.robots[0]._hand_vel)
>>> hand vel [0. 0. 0.] # 线速度
print("hand ang vel", env.robots[0]._hand_ang_vel)
>>> hand ang vel [0. 0. 0.] # 角速度
print("hand total vel", env.robots[0]._hand_total_velocity)
>>> hand total vel [0. 0. 0. 0. 0. 0.] # 线速度 + 角速度

# ### ------------gripper state-------------
print("gripper",env.robots[0].gripper)
>>> gripper <robosuite.models.grippers.panda_gripper.PandaGripper object at 0x7f41a4e5ca90>
print("gripper action", env.robots[0].grip_action)
>>> gripper action <bound method Manipulator.grip_action of <robosuite.robots.single_arm.SingleArm object at 0x7f41d46f3a58>>
print("gripper joints", env.robots[0].gripper_joints)
>>> gripper joints ['gripper0_finger_joint1', 'gripper0_finger_joint2']

observation: 

{
    "frontview_image": np.array(...),                   # this has modality "image"
    "frontview_depth": np.array(...),                   # this has modality "image"
    "frontview_segmentation_instance": np.array(...),   # this has modality "image"
    "robot0_joint_pos": np.array(...),                  # this has modality "robot0_proprio"
    "robot0_gripper_pos": np.array(...),                # this has modality "robot0_proprio"
    "image-state": np.array(...),                       # this is a concatenation of all image observations
    "robot0_proprio-state": np.array(...),              # this is a concatenation of all robot0_proprio observations
}
OrderedDict([
('robot0_joint_pos_cos', array([-0.99769503, -0.85681021,  0.99980593,  0.41310899,  0.99930241,-0.8115118 , -0.99999725])),
('robot0_joint_pos_sin', array([-0.06785743, -0.51563191,  0.01970008,  0.91068159,  0.03734571,
       -0.58433603, -0.00234431])), 
('robot0_joint_vel', array([0., 0., 0., 0., 0., 0., 0.])), 
('robot0_eef_pos', array([-0.11723944, -0.12816939,  1.08193961])), 
('robot0_eef_quat', array([ 0.9994818 , -0.02599663, -0.01115   ,  0.01536171])), 

('robot0_gripper_qpos', array([ 0.020833, -0.020833])), 
('robot0_gripper_qvel', array([0., 0.])), 

('Can_pos', array([ 0.17312353, -0.21908787,  0.86      ])), 
('Can_quat', array([0.        , 0.        , 0.9774751 , 0.21105077])), 
('Can_to_robot0_eef_pos', array([0.29942357, 0.0688192 , 0.21781518])), 
('Can_to_robot0_eef_quat', array([ 0.18553033, -0.98245513, -0.0173689 ,  0.00765675], dtype=float32)), 

('robot0_proprio-state', array([-0.99769503, -0.85681021,  0.99980593,  0.41310899,  0.99930241,
       -0.8115118 , -0.99999725, -0.06785743, -0.51563191,  0.01970008,
        0.91068159,  0.03734571, -0.58433603, -0.00234431,  0.        ,
        0.        ,  0.        ,  0.        ,  0.        ,  0.        ,
        0.        , -0.11723944, -0.12816939,  1.08193961,  0.9994818 ,
       -0.02599663, -0.01115   ,  0.01536171,  0.020833  , -0.020833  ,
        0.        ,  0.        ])), 

('object-state', array([ 0.17312353, -0.21908787,  0.86      ,  0.        ,  0.,
        0.9774751 ,  0.21105077,  0.29942357,  0.0688192 ,  0.21781518,
        0.18553033, -0.98245513, -0.0173689 ,  0.00765675]))])

下一篇: Robosuite Stack 环境解析

  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
OCO-2(Observing Carbon dioxide via Orbiting Satellites, 通过轨道卫星观测二氧化碳)L1B数据是美国地球观测系统(Aerosol Robotic Network, AERONET)的一部分,它由NASA的Ozone Monitoring Instrument (OMI)和后来的光谱仪(包括OCO-2)提供的一种科学级遥感数据产品。这些数据主要关注的是大气中二氧化碳(CO2)的浓度测量,以及相关的温室气体信息。 L1B表示Level 1B产品,这是原始数据经过初步处理的第一级,通常包含辐射校正、地形校正等步骤,但还未经过全面的质量控制和地理定位。读取OCO-2 L1B数据一般涉及以下步骤: 1. **数据获取**:可以从NASA官方网站或相关数据分发中心下载,例如Earthdata.org。 2. **数据格式**:L1B数据通常是以二进制或NetCDF(网络CDF)文件格式存储,可能需要特定的软件库(如Python的h5py或netCDF4库)来进行读取。 3. **数据解读**:每个文件包含了多个像元的数据,包括不同波段的辐射强度和相应的质量标志。需要熟悉文件结构和变量含义才能解析出有用的信息。 4. **预处理**:对数据进行辐射校准、几何校正、云掩蔽等操作,以提高数据的准确性和可用性。 5. **应用分析**:根据研究需求,比如计算CO2浓度变化、进行气候模型验证或监测气候变化趋势。 相关问题: 1. OCO-2 L1B数据的主要组成部分是什么? 2. 如何判断OCO-2 L1B数据中的质量是否可靠? 3. 在实际科研项目中,如何处理和利用OCO-2 L1B数据中的噪声?
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值