OpenLane-V2数据集

一、简介

真值时间戳=前视摄像头时间戳

数据集来源:nuScenes 、Argoverse

数据集结构:

图像:各视角图像、内外参

真值:车道中心线、车道线、空中元素(信号灯,道路标志)、ego pose

 OpenDataLab 引领AI大模型时代的开放数据平台

OpenLane-V2/data/README.md at master · OpenDriveLab/OpenLane-V2 · GitHub

二、OpenLane-V2真值结构:

{"version":"OpenLaneV2_V1.0",   ##string类型
 "segment_id":"00000",          ##string类型
 "meta_data":{"source":"ArgoverseV2","source_id":""},
 "timestamp":cam_front_center_timestamp,    ##float类型,18位
 "sensor":{"ring_front_center":{"image_path":"",  ##string类型,相对路径“train/00000/image/ring_front_center/315967376899927209.jpg”
                                "extrinsic":{"rotation":[],     ##3x3矩阵,区别于nuscenes数据集(四元数1x4)
                                             "translation":[]   ##1x3
                                            },  ##sensor2ego
                                "intrinsic":{"K":[],   ##3x3
                                             "distortion":[]  ##1x3
                                            } 
                                },  ##三个参数
            "ring_front_left":{},
            "ring_front_right":{},
            "ring_rear_left":{},
            "ring_rear_right":{},
            "ring_side_left":{},
            "ring_side_right":{}},  ##7个视角
  "pose":{"rotation":[],  ##3x3矩阵,ego pose
          "translation":[]  ##1x3矩阵
         },
  "annotation":{}  ##真值
  }

其中真值annotation分两种:

(1)一种为只包含了车道中心线:

{"lane_centerline":[{"id":"",
                     "points":[],  ##nx3,3D坐标
                     "is_intersection_or_connector":True,confidence?
                     },...],
 "traffic_element":[{"id":"",
                     "category":1, ##int类型
                     "attribute":0,  ##int类型
                     "points":[]  ##2x2
                     },...],
 "topology_lclc":[],  ##40x40[n,n]
 "topology_lcte":[],  ##40x2[n,k]
}

(2)另一种为Map Element Bucket:包含了车道中心线以及中心线左右的车道线以及其他属性Map Element Bucket--替代OpenLane-V2真值结构中annotation对应的值

{
    'lane_segment': [                       (i lane segments in the current frame)
        {   
            'id':                           <int> -- unique ID in the current frame
            'centerline':                   <float> [n, 3] -- 3D coordiate
            'left_laneline':                <float> [n, 3] -- 3D coordiate
            'left_laneline_type':           <int> -- type of the left laneline
                                                0: 'none',
                                                1: 'solid',
                                                2: 'dash',
            'right_laneline':               <float> [n, 3] -- 3D coordiate
            'right_laneline_type':          <int> -- type of the right laneline
            'is_intersection_or_connector': <bool> -- whether the lane segment is in a intersection or connector
            'confidence':                   <float> -- confidence, only for prediction
        },
        ...
    ],
    'traffic_element': [                    (j traffic elements in the current frame)
        {   
            'id':                           <int> -- unique ID in the current frame
            'category':                     <int> -- traffic element category
                                                1: 'traffic_light',
                                                2: 'road_sign',
            'attribute':                    <int> -- attribute of traffic element
                                                0:  'unknown',
                                                1:  'red',
                                                2:  'green',
                                                3:  'yellow',
                                                4:  'go_straight',
                                                5:  'turn_left',
                                                6:  'turn_right',
                                                7:  'no_left_turn',
                                                8:  'no_right_turn',
                                                9:  'u_turn',
                                                10: 'no_u_turn',
                                                11: 'slight_left',
                                                12: 'slight_right',
            'points':                       <float> [2, 2] -- top-left and bottom-right corners of the 2D bounding box
            'confidence':                   <float> -- confidence, only for prediction
        },
        ...
    ],
    'area': [                               (k areas in the current frame)
        {   
            'id':                           <int> -- unique ID in the current frame
            'category':                     <int> -- area category
                                                1: 'pedestrian_crossing',
                                                2: 'road_boundary',
            'points':                       <float> [n, 3] -- 3D coordiate
            'confidence':                   <float> -- confidence, only for prediction
        },
        ...
    ],
    'topology_lsls':                        <float> [n, n] -- adjacent matrix among lane segments
    'topology_lste':                        <float> [n, k] -- adjacent matrix between lane segments and traffic elements
}

这两种表达中的3D点均为ego坐标系下的点:The data are in the ego coordinate system, where the ego is at (0, 0), with x-forward and y-left,其中ego坐标系中x向前,y向左。question about creating my own dataset · Issue #100 · OpenDriveLab/OpenLane-V2 · GitHub

 (3)交通元素枚举:

{"category"'":{1: 'traffic_light',
            2: 'road_sign'},
"attribute":{0:  'unknown',
             1:  'red',
             2:  'green',
             3:  'yellow',
             4:  'go_straight',
             5:  'turn_left',
             6:  'turn_right',
             7:  'no_left_turn',
             8:  'no_right_turn',
             9:  'u_turn',
             10: 'no_u_turn',
             11: 'slight_left',
             12: 'slight_right'}
}

三、相关路径

(1)评定数据格式:

https://github.com/OpenDriveLab/OpenLane-V2/blob/master/docs/submission.md

 (2)数据集下载:

https://github.com/OpenDriveLab/OpenLane-V2/blob/master/data/README.md

(3)Devkit使用:

  • Centerline:

OpenLane-V2/tutorials/Centerline.ipynb at master · OpenDriveLab/OpenLane-V2 · GitHub

  • LaneSegment:

OpenLane-V2/tutorials/LaneSegment.ipynb at master · OpenDriveLab/OpenLane-V2 · GitHub

(4)生成pickle文件

OpenLane-V2/data/OpenLane-V2/preprocess.py at master · OpenDriveLab/OpenLane-V2 · GitHub

四、验证

submission中车道线点集必须为numpy格式,否则会报错: AttributeError: 'list' object has no attribute 'ndim'。计算精度时会做判断。

  • 4
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: dolly-v2-12b 数据集是一个用于语音识别任务的数据集,由于其广泛应用,现在网上已经有很多可供下载的途径。以下是一些途径供参考: 1. GitHub dolly-v2-12b 数据集的一份完整备份可以在 GitHub 上找到,可以直接下载或者通过 Git 命令进行克隆。 2. Kaggle kaggle 是一个以数据为基础的社区平台,提供各种数据集供用户下载。dolly-v2-12b 数据集也可以在 Kaggle 上找到并下载。 3. Google Drive 一些学者可能会将数据集上传至 Google Drive 并分享下载链接。搜寻一下相关的共享链接,即可下载得到该数据集。 需要注意的是,在下载数据集的过程中,一定要选择可信的来源,以避免下载到潜在的病毒或恶意程序。同时,最好事先重复检验文件的完整性和正确性,以确保在使用该数据集时准确可靠。 ### 回答2: Dolly-v2-12b是一个用于人脸识别和图像检索任务的数据集,涵盖了各种人物和场景的图片。要下载这个数据集,首先你需要找到合适的资源站点。可以通过搜索引擎进行查找,在网页上输入“Dolly-v2-12b下载”,就可以找到多个可供下载的资源站点。建议选择官方或知名的站点下载,以确保数据集的完整性和可靠性。其中,一些站点可能需要你注册账号或付费才能获得下载权限,需要根据自己情况选择合适的方式。另外,在下载之前,记得仔细阅读数据集的使用说明和许可协议,以确保你的研究和应用符合相关的规定。 ### 回答3: dolly-v2-12b数据集可以在互联网上找到,但如果要快速下载,最好使用百度网盘或其他云存储服务。用户可以搜索dolly-v2-12b数据集,并在搜索结果中找到可用的下载链接。在下载之前,用户应该确保所选的链接是可靠和安全的。一些学术机构或研究机构也可能提供该数据集的下载链接,这些机构通常会要求用户填写特定的表格或提交申请以获取数据集的访问权限。用户还可以考虑使用下载管理器和断点续传功能,以便在网络连接中断时恢复下载进度。总之,找到可靠的下载链接和使用高效的下载工具是从互联网上快速下载dolly-v2-12b数据集的关键。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值