聚类技术---复杂网络社团检测_自然场景中交通标志牌检测~文末送书

a279bd79-401e-eb11-8da9-e4434bdf6706.gif

导读:近年来,交通标志牌检测技术已经成为智能驾驶公交车辆视觉导航系统和计算机视觉领域的热点之一。

本文为6月份刚出版的新书《智能驾驶技术:路径规划与导航控制》节选,探讨基于视觉协同显著性的交通标志牌检测框架设计。 作者团队曾参与两期中车时代电动智能客车“智能驾驶决策控制系统”开发,在该领域不是纸上谈兵,参与项目已经获得湖南省颁发的智能驾驶公交车牌照。 文末 52CV 联合出版社送书  8  本,欢迎参与。 大多数传统的交通标志牌检测算法常常是基于任务驱动的,如依赖颜色、形状以及机器学习。目前,这些算法针对的应用场景往往局限于结构化或半结构的环境,如高速公路等。 如今,随着生物神经元的发展以及大脑视觉皮层中信息处理机制的揭示,基于选择性注意机制的视觉显著性目标检测逐渐引起人们的关注。 正如我们所知道的,人类在对一幅场景图像进行观察时,会毫不费力地将注意力聚焦在特定的目标或区域上。 而这些目标或区域经常具有显著的视觉特征,如边缘轮廓、细节纹理、梯度方向、颜色强度以及空间位置等。 受此启发,本文提出一种基于视觉协同显著性的交通标志牌检测算法, 这是目前较有前景的解决办法。 协同显著性的目标是从多幅输入图像中提取共同的显著性前景目标[6-7]。在本章主要面向复杂场景中的多幅交通标志牌图像进行检测。其中,为满足协同显著性检测,输入图像需要满足以下两个要求:
  1. 遵循人类视觉感知机制,单幅图像中可视化的目标区域能够明显与背景区分开来;

  2. 多幅图像中的协同显著性目标彼此具有相似性。

研究一种复杂场景中基于视觉协同显著性的交通标志牌检测算法,总体框架如图2-1所示。 其检测过程涉及两个阶段: 在第一阶段,构建一个基于聚类的协同显著性模型,旨在检测多图像中重复出现的同一或近似的视觉显著性物体,其结果由协同显著图获得。其中,协同显著图由图间显著图和图内显著图融合而成。本阶段是一种 bottom-up (自底向上)的视觉处理过程,根据图像底层特征分割出区别度最大的显著性目标。 在第二阶段,一个top-down(自顶向下)的几何结构约束模型被提出。目的是对检测出的显著性目标做自顶向下的几何结构约束分析,从而准确定位交通标志牌的ROI区域。 a379bd79-401e-eb11-8da9-e4434bdf6706.png ▲图2-1 基于视觉协同显著性的交通标志牌检测总体框架 01 基于聚类的图间/图内显著性检测模型子框架 构建基于聚类的协同显著性模型以得到协同显著图。 其中关键是通过聚类进行图间关联性约束分析和图内关联性约束分析 ,使之分别生成图间协同显著图和图内显著图,其框架设计如图2-2所示。 a479bd79-401e-eb11-8da9-e4434bdf6706.png ▲图2-2 基于聚类的无监督约束子框架 依据bottom-up视觉注意力线索—分别为对比度线索、中心偏移度线索和对称性线索,对输入图像集进行聚类级别的显著性度量。将3个视觉注意力线索权值进行高斯归一化处理后,利用乘积融合为整体显著性图。最后采用概率框架软分配的方式平滑每个像素的显著性测度值,得到聚类级的图间/图内显著图。 采用的聚类算法为 Kmeans++ ,这是一种无监督聚类算法,可以直观地划分出图像内与图像间的关联性区域。需要注意,聚类个数的选取是人为设定的。本文凭借实验对象和实验效果对聚类数目设置经验值,其中单幅图像内的聚类个数为6,多幅图像间的聚类个数为,其中,M表示输入图像的数目。 图2-3分别提供了单幅图像内的聚类和多幅图像间的聚类效果,可以看出Kmeans++实现了图像内的局部不变性约束和图像间的全局一致性约束。 a979bd79-401e-eb11-8da9-e4434bdf6706.png ▲图2-3 单幅图像内与多幅图像间的聚类效果图 02 几何结构约束模型子框架 总体上说,单纯依靠自底向上的显著性线索虽然能够将显著目标突显出来,但却很难移除一些干扰物的影响。这是由于在第一阶段寻找区别度最大的显著性区域或目标进行简单融合计算时,这些干扰物往往也会被赋予较高的显著度,从而对后续分析造成极大干扰。 人类的视觉系统对事物的感知是一个和外界环境交互的过程,既和自底向上数据驱动有关,也和自顶向下任务驱动有关。 因此, 构建了一种几何结构约束模型,对检测出的交通标志牌协同显著图作自顶向下的几何约束。 本文主要对日常生活中应用最广泛的圆形和三角形交通标志牌进行研究。即通过圆度和三角形检测模型判别每个场景目标所属类别,最后定位含有标志牌的ROI区域,如图2-4所示。 ab79bd79-401e-eb11-8da9-e4434bdf6706.png ▲图2-4 几何结构约束模型子框架 关于作者: 余伶俐,中南大学人工智能系副教授,主持多项国家重点研发计划子任务、湖南省科技重大专项子课题、国家自然科学基金等项目。承担了两期的中车时代电动汽车“智能驾驶决策与控制系统”开发,在湖南湘江新区与智慧公交示范运营线路上完成了3500 km测试,获得了湖南省颁发的第一辆智能驾驶公交车牌照。 周开军,湖南工商大学教授、硕士生导师,美国布兰戴斯大学国家复杂系统研究中心访问学者,湖南省青年骨干教师,湖南工商大学151人才。 陈白帆,中南大学副教授,硕士生导师,湖南省人工智能学会副秘书长,湖南省自兴人工智能研究院副院长,长期从事智能驾驶、移动机器人等应用理论研究。先后主持国家自然科学基金项目、湖南省自然科学基金项目,参与国家自然科学基金重大计划、国家重点研发计划、湖南省科技重大专项子课题。 本文摘编自《智能驾驶技术:路径规划与导航控制》,经出版方授权发布。 推荐语:高等院校智能科学与技术、自动化、人工智能等专业研究生或高年级本科生的专业基础课程教材,亦可供广大从事人工智能、智能驾驶、决策规划、导航控制领域的科技工作者阅读和思考。 福利时间:本次我爱计算机视觉联合【机械工业出版社华章公司】为大家带来  8 本正版新书。在本文末评论区中谈谈你对智能驾驶、智能交通或计算机视觉的学习经验、认识等, 6 月 17 日下午 17点前,评论点赞 前 8 名的读者将获赠正版图书 1 本。 注意:
  • 因微信系统所限只能精选100条留言,如果留言超过100条,以时间为序只放出前100条,所以请想参加活动的赶紧留言。

  • 为防止羊毛党,保障正常粉丝权益,本活动仅限 2020 年 6 月 15 日之前关注我爱计算机视觉公众号的粉丝参与。

当当网已开售,大家也可以在以下链接查看该书详情购买:

END

ac79bd79-401e-eb11-8da9-e4434bdf6706.png

备注:智能驾驶

ad79bd79-401e-eb11-8da9-e4434bdf6706.jpeg

智能驾驶交流群

车道线检测、自动驾驶、行人意图识别等技术,

若已为CV君其他账号好友请直接私信。

我爱计算机视觉

微信号:aicvml

QQ群:805388940

微博知乎:@我爱计算机视觉

投稿:amos@52cv.net

网站:www.52cv.net

ae79bd79-401e-eb11-8da9-e4434bdf6706.jpeg

在看,让更多人看到  b079bd79-401e-eb11-8da9-e4434bdf6706.gif

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值