CARLA 笔记(4th)— 基础模块使用(client、world、Actor 与 Blueprint、搭建Sensor、Camera、Lidar 构建、观察者放置)

3. 搭建传感器 Sensor

Sensor 是一种特殊的 Actor,它的蓝图也是可以在蓝图库里边找到的,目前 Carla 已经支持了很多传感器,比如

  • 摄像头: DepthRGBSemantic segmentation
  • 探测器: CollisionLane invasionObstacle
  • 其他: GNSSIMULIDAR raycastRadar

传感器跟其他的 Actor最大的不同是,它们需要被安装在车上,因此在生成传感器的时候,需要将其附着到一个车辆类型的 Actor 上,而出生点是针对于这台车本身的坐标系给定的。

在这里先简单介绍下 Carla 有哪些Sensors , 在 Python API reference 里有对每一种数据格式类别的详细介绍。

SensorSensor输出数据形式功能类别
RGB Cameracarla.Image普通的RGB相机Cameras
深度相机carla.Image深度相机,以灰度图形式储存Cameras
分割相机carla.Image直接输出景物分割图,不同颜色代表不同的种类Cameras
Collisioncarla.CollisionEvent汽车发生碰撞时启动,会将事故的信息记录下来Detector
Lane invasioncarla.LaneInvasionEvent汽车变道时启动,将Lane ID与汽车ID记录下来Detector
Obstaclecarla.ObstacleDetectionEvent将可能挡在前方行驶道路上的物体记下Detector
GNSScarla.GNSSMeasurement记录车子的地理位置Other
IMUcarla.IMUMeasurement记录汽车的轴加速度与角加速度Other
LIDARcarla.LidarMeasurement激光雷达Other
Radarcarla.RadarMeasurement声波雷达Other
Semantic LIDARcarla.SemanticLidarMeasurement除了3D点云外,还提供额外的Semantic信息Other

我们以 Camera 与激光雷达建立连接为例。

3.1 Camera 构建

与汽车类似,我们先创建蓝图,再定义位置,然后再选择我们想要的汽车安装上去。不过,这里的位置都是相对汽车中心点的位置(以米计量)。

camera_bp = blueprint_library.find('sensor.camera.rgb')
camera_transform = carla.Transform(carla.Location(x=1.5, z=2.4), carla.Rotation(pitch=8.0))
camera = world.spawn_actor(camera_bp, camera_transform, ego_vehicle, carla.AttachmentType.SpringArm)

我们选择了摄像头附着类型为:carla.AttachmentType.SpringArm,并将其位置设置到后方,这样我们就可以像从一个第三者的角度拍到行驶的车辆了。

每一个传感器都有一个 listen 方法,该方法接收一个 callback 作为参数,我们可以自定义 callback 里边的逻辑,callback 将会在传感器拿到数据后被调用,并能够获取到这些数据。这个例子中,我们将摄像头采集到的图像信息以图片的形式保存下来。

camera.listen(lambda image: image.save_to_disk(os.path.join(output_path, '%06d.png' % image.frame)))

跟其他 Actor 一样的,传感器也有很多参数可以设置,比如对于 RBG 摄像头来说,我们可以设置其采集的分辨率。

3.2 Lidar 构建

Lidar 可以设置的参数比较多,现在就知道我们设置了一些常用参数就好。

lidar_bp = blueprint_library.find('sensor.lidar.ray_cast')
lidar_bp.set_attribute('channels', str(32))
lidar_bp.set_attribute('points_per_second', str(90000))
lidar_bp.set_attribute('rotation_frequency', str(40))
lidar_bp.set_attribute('range', str(20))

接着把 lidar 放置在奔驰上, 定义它的 callback function

lidar_location = carla.Location(0, 0, 2)
lidar_rotation = carla.Rotation(0, 0, 0)
lidar_transform = carla.Transform(lidar_location, lidar_rotation)
lidar = world.spawn_actor(lidar_bp, lidar_transform, attach_to=ego_vehicle)
lidar.listen(lambda point_cloud: \
            point_cloud.save_to_disk(os.path.join(output_path, '%06d.ply' % point_cloud.frame)))

3.3 观察者(spectator)放置

当我们去观察仿真界面时,我们会发现,自己的视野并不会随我们造的小车子移动,所以经常会跟丢它。解决这个问题的办法就是把 spectator 对准汽车,这样小汽车就永远在我们的视野里了!

while running:
	spectator = world.get_spectator()
	transform = ego_vehicle.get_transform()
	spectator.set_transform(carla.Transform(transform.location + carla.Location(z=20),
	                                                    carla.Rotation(pitch=-90)))
	time.sleep(3)

我们利用上边这段代码,将观察者的位置到我们的车辆的正上方(z 轴),并将视角调为 -90 度,即向下看,每隔 3s 中跟着车辆的位置重置一下观察者的位置,这样就可以在车辆的正上方追踪并观察这台车了。

放置观察者后效果如下,我们将以俯视的角度观察它的运行:

spectator

下图就是我们使用 carla.AttachmentType.SpringArm 附着类型采集到的照片

retsss
完整代码如下:

import time
import carla
import numpy as np

# Create client and connected to the server
client = carla.Client("localhost", 2000)
client.set_timeout(10.0)

# get world
world = client.load_world('Town02')
weather = carla.WeatherParameters(
    cloudiness=0.0,
    precipitation=0.0,
    sun_altitude_angle=50.0)
world.set_weather(weather)

# get vehicle blueprint
model3_bp = world.get_blueprint_library().find('vehicle.tesla.model3')
model3_bp.set_attribute('color', '255,255,255')

camera_bp = world.get_blueprint_library().find('sensor.camera.rgb')

# spawn vehicle(Actor)
spawn_points = world.get_map().get_spawn_points()
model3_spawn_point = np.random.choice(spawn_points)
model3 = world.spawn_actor(model3_bp, model3_spawn_point)
model3.set_autopilot(True)


# spawn camera
camera = world.spawn_actor(camera_bp,
                           carla.Transform(carla.Location(x=-5.5, z=2.5), carla.Rotation(pitch=8.0)),
                           model3,
                           carla.AttachmentType.SpringArm
                           )
camera.listen(lambda image: image.save_to_disk('./output/%06d.png' % image.frame))

while True:
    spectator = world.get_spectator()
    transform = model3.get_transform()
    spectator.set_transform(carla.Transform(transform.location + carla.Location(z=20), carla.Rotation(pitch=-90)))
    time.sleep(5)

4. 查看储存的照片与3D点云

储存的 RGB 相机图如下:
rgb
查看点云图需要另外安装 meshlab, 然后进入 meshlab 后选择 import mesh

sudo apt-get update -y
sudo apt-get install -y meshlab
meshlab

meshlab

不知道小伙伴有没有发现自己储存的照片是不连续的,存在掉帧现象?这是因为 Carla Simulation ServerClient 默认为异步进行,也就是说 server 并不会等 client 处理完手头的事再进行模拟,它会以最快的速度进行模拟,这就导致你的 client 如果处理过慢,还没来得及储存第 Kdata , simulation 早就进行到了第 K+10 步,也就会产生掉帧了。

所以在下一节,我会介绍 Carla 里很重要的一个模块——同步模式,以此来解决我们掉帧的问题。

https://github.com/DerrickXuNu/Learn-Carla

  • 1
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
这个报错信息表明在Carla的蓝图库中没有名为`sensor.other.trigger_volume`的蓝图。这可能是因为你的Carla版本不同于代码示例中使用的版本,或者你没有正确安装CarlaPython API。 你可以通过在Python交互式命令行中输入以下命令来验证你的Carla版本: ``` import carla print(carla.__version__) ``` 如果你的Carla版本不同于代码示例中使用的版本,你可能需要更新你的Carla版本或者寻找适用于你的版本的代码示例。 如果你的Carla版本与代码示例中使用的版本相同,那么你可能需要使用其他的蓝图名称来创建触发器。你可以使用以下命令列出Carla蓝图库中可用的蓝图: ``` import carla client = carla.Client('localhost', 2000) client.set_timeout(10.0) world = client.get_world() blueprints = world.get_blueprint_library().filter('sensor.other.*') for blueprint in blueprints: print(blueprint.id) ``` 这个命令将列出所有以`sensor.other.`开头的蓝图名称。你可以根据需要选择一个可用的蓝图名称。然后,你可以使用以下代码创建一个盒状触发器: ``` import carla client = carla.Client('localhost', 2000) client.set_timeout(10.0) world = client.get_world() # 设置触发器的位置和大小 start_point = carla.Location(x=100, y=100, z=10) end_point = carla.Location(x=200, y=200, z=20) # 创建触发器 trigger = world.try_spawn_actor(world.get_blueprint_library().find('YOUR_BLUEPRINT_NAME_HERE'), carla.Transform(), attach_to=None, attachment_type=carla.AttachmentType.Rigid) # 设置触发器的属性 trigger.set_box(carla.BoundingBox(start_point, end_point)) # 注册触发器的回调函数 def on_trigger(other_actor): print("触发器被触发") trigger.listen(on_trigger) ``` 在这个例子中,我们将`YOUR_BLUEPRINT_NAME_HERE`替换为你选择的蓝图名称,并使用`carla.BoundingBox()`方法定义触发器的大小和位置。然后,我们使用`world.try_spawn_actor()`方法创建了一个触发器,并将其附加到世界上。最后,我们使用`set_box()`方法设置触发器的大小和位置,并使用`listen()`方法注册了一个回调函数,当触发器被触发时,回调函数将被调用。 如果你仍然遇到问题,请检查你的Carla Python API是否正确安装,并确保你的代码中包含了正确的Carla版本和蓝图名称。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值