注意:
- 再学习本系列教程时,应该已经安装过ROS了并且需要有一些ROS的基本知识
ubuntu版本:20.04
ros版本:noetic
课程回顾
ROS1结合自动驾驶数据集Kitti开发教程(一)Kitti资料介绍和可视化
ROS1结合自动驾驶数据集Kitti开发教程(二)发布图片
ROS1结合自动驾驶数据集Kitti开发教程(三)发布点云数据
ROS1结合自动驾驶数据集Kitti开发教程(四)画出自己车子模型以及照相机视野
ROS1结合自动驾驶数据集Kitti开发教程(五)发布IMU数据
ROS1结合自动驾驶数据集Kitti开发教程(六)发布GPS数据
ROS1结合自动驾驶数据集Kitti开发教程(七)下载图像标注资料并读取显示
1.数据分析
上一节,我们已经能把标注数据显示出来了,其中可以看到frame
代表着第几帧图像的检测结果,如第零帧数据所示:
第零帧图像如下所示:
在第一帧的图像中我们可以从中看到有面包车、自行车和行人,在标注数据中也给我们展示出来了。bbox(left,top,right,bottom)
分别是标注的四个顶点,有了这四个顶点的坐标,我们就可以画出物体2D的检测框。
2.数据处理
- 去除
DontCare
标签的标注数据。 - 将
van
,car
,truck
标签都转换成car标签。
代码如下所示:
# 将dataframe的`van`,`car`,`truck`标签都转换成car标签。
data.loc[data.type.isin(['Van','Car','Truck']),'type'] = 'Car'
# 去除`DontCare`标签的标注数据。
data = data[data.type.isin(['Car','Cyclist','Pedestrian'])]
# 展示最新dataframe
data
数据处理结果如下图所示:
3.画出其中一个物体的检测框
获取其bbox(left,top,right,bottom)
的各个值。
data.loc[2,['bbox_left','bbox_top','bbox_right','bbox_bottom']]
----
bbox_left 296.744956
bbox_top 161.752147
bbox_right 455.226042
bbox_bottom 292.372804
Name: 2, dtype: object
可以看到这样就可以把四个顶点的数据提取出来了,这时我们就可以绘制检测框了。
# 将四个顶点的坐标值转换为np格式
box = np.array(data.loc[2,['bbox_left','bbox_top','bbox_right','bbox_bottom']])
import cv2
# 读取第一帧图片
img = cv2.imread(BASE_PATH+"image_02/data/%010d.png"%0)
# 左上角顶点坐标
left_point = (int(box[0]),int(box[1]))
# 右下角顶点坐标
right_point = (int(box[2]),int(box[3]))
# 画出car的检测框,蓝色,2mm宽度
cv2.rectangle(img,left_point,right_point,(255,0,0),2)
cv2.imshow("img",img)
cv2.waitKey(0)
cv2.destroyAllWindows()
3.1效果
最终效果如下所示:
4.画出所有2D检测框
上面已经获取到标注资料中的坐标点,并且能标注出其中的一件物体。但是我们的目标是把每一帧的所有能标注的物体都标注起来。
具体模块代码如下所示:
import cv2
# 一共有153帧
for i in range(153):
# 读取每一帧的图片
img = cv2.imread(BASE_PATH+"image_02/data/%010d.png"%i)
# 获取每一帧的所有标注数据并且转化为numpy格式
boxs = np.array(data.loc[data.frame.isin([i]),['type','bbox_left','bbox_top','bbox_right','bbox_bottom']])
for box in boxs:
left_point = (int(box[1]),int(box[2]))
right_point = (int(box[3]),int(box[4]))
# Car类型数据使用蓝色标注,Cyclist使用绿色标注,Pedestrian使用红色标注
if box[0] == 'Car':
cv2.rectangle(img,left_point,right_point,(255,0,0),2)
elif box[0] == 'Cyclist':
cv2.rectangle(img,left_point,right_point,(0,255,0),2)
elif box[0] == 'Pedestrian':
cv2.rectangle(img,left_point,right_point,(0,0,255),2)
cv2.imshow("img",img)
cv2.waitKey(0)
cv2.imwrite("img.png",img)
cv2.destroyAllWindows()
4.1效果
可以按下任意按键进行下一帧图片的标注:
5.在Rviz中显示标注后的图片
由于我们已经使用Jupyter Notebook
编写并且验证了效果。所以想要移植到ROS中是非常方便和简单的。
- 1.首先我们需要获取图片标注数据,并对其做相应的处理,代码如下所示:
#----- 读取图片标注数据,并做相应的处理 -----#
def read_labelfile():
data = pd.read_csv(os.path.join(BASE_PATH, "label_02/0000.txt"), header=None, sep=" ")
data.columns = LABEL_NAME
data.loc[data.type.isin(['Van','Car','Truck']),'type'] = 'Car'
data = data[data.type.isin(['Car','Cyclist','Pedestrian'])]
return data
- 2.在main函数中调用获取dataframe
- 3.直接修改publish_cam_fun函数,图像标注并且发布,代码如下所示:
#----- 相机数据发布函数 -----#
def publish_cam_fun(num,df,cam_pub):
bridge = CvBridge()
img = cv2.imread(os.path.join(BASE_PATH, "image_02/data/%010d.png"%num))
boxs = np.array(df.loc[df.frame.isin([num]),['type','bbox_left','bbox_top','bbox_right','bbox_bottom']])
for box in boxs:
left_point = (int(box[1]),int(box[2]))
right_point = (int(box[3]),int(box[4]))
if box[0] == 'Car':
cv2.rectangle(img,left_point,right_point,(255,0,0),2)
elif box[0] == 'Cyclist':
cv2.rectangle(img,left_point,right_point,(0,255,0),2)
elif box[0] == 'Pedestrian':
cv2.rectangle(img,left_point,right_point,(0,0,255),2)
cam_pub.publish(bridge.cv2_to_imgmsg(img,"bgr8"))
6.最终显示效果
结语
本文也是基于笔者的学习和使用经验总结的,主观性较强,如果有哪些不对的地方或者不明白的地方,欢迎评论区留言交流~
为了能和读者进一步讨论问题,建立了一个微信群,方便给大家解答问题,也可以一起讨论问题。
加群链接
✌Bye