一、模型选型-YOLOP
YOLOP能同时处理目标检测、可行驶区域分割、车道线检测三个视觉感知任务,并速度优异、保持较好精度进行工作,代码开源。它是华中科技大学—―王兴刚团队,在全景驾驶感知方面提出的模型。
1.代码链接:https://github.com/hustvl/YOLOP。
2.网络结构
3.损失函数
二、AutoDL云端训练YOLOP模型
1.数据集-BDD100K数据集
加州大学伯克利分校Al实验室(BAIR)于2018年发布,迄今为止最大规模、内容最具多样性的公开驾驶数据集之一。其包含的10万个高清视频序列,时长超过1100小时。其中,每个视频大约40秒长、720p、30 fps,数据集中的视频是从美国各地收集的,涵盖不同时间、不同天气条件(包括晴天、阴天和雨天,以及白天和晚上的不同时间)和驾驶场景。收集数据集的地理位置分布在纽约、伯克利、旧金山等地。
2.数据上传
3.使用Xshell和Xftp传输项目文件
具体教程点击链接&#x