Gym-mujoco_py环境下,如何将世界坐标转换到相机坐标

本文详细介绍了在Gym的mujoco_py环境中,如何将目标点的世界坐标转换为相机视角下的坐标。通过解析环境、获取相机参数、旋转矩阵和内参矩阵,最终实现坐标转换。作者分享了实现这一过程的代码和验证结果,为使用Gym进行强化学习研究提供了参考。
摘要由CSDN通过智能技术生成

动机

我最近在Gym环境下使用强化学习算法对其进行机械臂的避障训练,使用的“FetchReach-v1”这个环境,已经在模拟环境中训练的比较成功,想要配合目标检测的算法进行新的尝试,在收集数据集的时候遇到了如何将世界坐标向相机坐标转换的问题,在经过我的尝试和搜索,完成了将mujoco_py环境下的世界坐标转换到指定的相机坐标的任务。

如何在Gym中获取图片

首先需要安装gym和Mujoco,并在官网获得license,这里默认已经安装成功,不在赘述。
使用gym的"FetchReach-v1"进行渲染并获取指定相机的图片。

render

import gym

env = gym.make("FetchReach-v1")  # 如果v1报错,可根据提示换成v0
env.reset()
while True:
	env.render()

这是一个最基本的render代码, 可以展现出工作环境,包含一个Fetch机器人、桌子和一个随机移动的目标点,每次reset可以重置机械臂位置和目标点的位置。
FetchReach-v1的渲染图像
使用TAB键可以自由切换场景中存在的相机,我今天要用到的就是这个三号相机。
camera_id3

如何获取该相机下的图片?

“FetchReach”’分为robot_env和fetch_env,fetch_env继承了robot_env,所以会具体实现其函数,其中render()函数在robot_env中定义,在fetch_env中实现。
可以看到,我们能够切换到该相机视角,但是我们如何获取该图像呢?其实在gym中,我们去看它的render源码,会发现他有一种默认的模式叫:“human”:
render
进入到fetch_env中,可以看到:
在这里插入图片描述
我们会发现这里存在另一种渲染模式叫做:“rgb_array”,其返回的data其实就是我们的RGB图像,顺带一提,在data那一行有一个depth参数,如果指定为True的话,data就会返回imagedepth两种图像的一个列表。*data[::-1, :, :]*是因为得到的渲染图片是倒像,需要对其进行翻转。
我们试一下:

import gym
import matplotlib.pyplot as plt

env = gym.make("FetchReach-v1")  # 如果v1报错,可根据提示换成v0
env.reset()
img = env.render(mode="rgb_array&
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值