基于深度学习的图像边缘和轮廓提取

导读:边缘和轮廓的提取是一个非常棘手的工作,细节也许就会被过强的图像线条掩盖,纹理(texture)本身就是一种很弱的边缘分布模式,分级(hierarchical)表示是常用的方法,俗称尺度空间(scale space)。以前做移动端的视觉平台,有时候不得不把一些图像处理功能关掉,原因是造成了特征畸变。现在 CNN 模型这种天然的特征描述机制,给图像预处理提供了不错的工具,它能将图像处理和视觉预处理合二为一。

边缘提取

1. HED

整体嵌套边缘检测(Holistically-Nested Edge Detection,HED 是一个深度学习的边缘提取的算法,两个特色:(1)整体图像训练和预测; (2)多尺度、多层特征学习。该深度模型利用全卷积网络,自动学习丰富的分层表示(基于侧面响应的深层监督指导)。

多尺度深度学习可分为四类,即多流学习(multi-stream)、跳网(skip-net learning)学习、多输入单模型以及独立网训练,如图所示:(a)多流架构; (b)跳网架构; (c)多尺度输入的单一模型; (d)不同网络独立训练; (e)HED,其中添加多个侧面输出。

在表示和计算复杂性方面,(a)-(d)方法存在冗余。(e)HED 是一个相对简单的变体,能够从多个尺度产生预测。该结构可以被解释为(d)“独立网络”法的“整体嵌套”版,包括多个侧输出的单流深度网络。隐藏层监督可以改善图像分类任务的优化和泛化。如果需要统一输出,多侧向输出可以灵活地添加额外的融合层。

如图是 HED 的网络架构图,在卷积层之后插入侧输出层,在每个侧输出层施加深度监督,引导侧输出成为边缘预测。HED 输出是多尺度多层,侧输出面变小,感受野变大。一个加权融合层自动学习如何组合来自多个尺度的输出。整个网络通过多个误差传播路径(虚线)训练。

图片

下图给出HED的部分实验结果。(a)测试图像;(b)手工标注的边缘;(c)HED 结果。(d)、(e)和(f)卷积神经网络的层2、3和4的侧边响应。(g)、(h)和(i)Canny 边缘检测器在尺度 σ= 2.0、σ= 4.0 和 σ= 8.0 的边缘响应。HED 与 Canny 在一致性方面显示出明显的优势。

图片

2. CASENet

CASENet 将每个边缘像素与多于一个的边缘类相关联,是一种基于 ResNet 的端到端深度语义边缘学习的架构,同时也是一种跳层(skip-layer)架构,其中顶层卷积层的类别边缘激活共享并与底层特征的同一集融合,这里一种多标签损失函数来监督激活的融合。

三种 CNN 架构的比较如图(a)-(c)所示。图中实心矩形表示 CNN 层的组合块。宽度减小表示输出特征图的空间分辨率下降2倍。箭头旁边的数字表示输出特征的通道数。蓝色实心矩形是一堆 ResNet 块。紫色实心矩形是分类模块。红色虚线框表示输出由损失函数监控。灰色实心矩形是侧面特征提取模块。深绿色实心矩形是融合分类模块,执行 K 个分组1×1卷积。图(d)-(h)是图(a)-(c)中模块细节,其中矩形是输入和输出特征图。

图片

图(a)是基础网络,采用全卷积网络框架,在 ResNet-101 删除平均池化和全连接层并保留底部卷积块;将 ResNet-101 中第一个和第五个卷积块(“res1”和“res5”)的步幅从2改为1;将扩张因子(dilation factors)引入后续的卷积层以保持原始 ResNet 相同的感受野;在基础网络的顶部,添加分类模块(图(d))作为1×1卷积层,然后是双线性上采样(由 K 分组反卷积层实现)产生一个 K 个激活图 { A1,···,AK } 的集合,其中每个激活图都与图像尺寸相同;然后,Yk(p)=σ(Ak(p))定义的 sigmoid 单元对像素属于第 k 类边缘的概率建模。

前面 HED 网络的基本思路是除了顶部网络损失以外还考虑底层卷积损失。另外,通过监督侧面激活的线性组合来获得融合边缘图。不过,HED 仅执行二进制边缘检测。深度监督网络(DSN)扩展了这种架构,处理侧输出的K通道和最终输出的 K 通道,如图(b)所示。在该网络中,将上述分类模块连接到每个残差块的输出,产生5个侧分类激活图 { A(1), ... , A(5)},其中每个激活图都有K通道。然后,通过切片连接层(sliced concatenation layer)融合这5个激活图(图中颜色表示图(g)的通道索引)产生 5K 通道激活图:

图片

Af 馈入融合分类层,该分类层执行 K-组 1×1卷积(图(f))产生 K-通道激活图A(6)。最后,在激活图 {A(1),...,A(6)}计算6个损失函数,为该网络提供深入监督。

由于监督5个侧面激活,隐含地约束了那些侧面激活的每个通道只带有该类别最相关的信息。由于切片级联和分组卷积,像素 p 的融合激活由下式给出:

图片

CASENet 采用嵌套式架构(nested architecture),改进点如下:

① 将底部分类模块更换为特征提取模块。

② 放置分类模块,仅在网络顶部施加监督。

③ 采用共享串联(图(h))而不是切片连接。

侧面特征提取和侧面分类之间的区别在于前者仅输出单个通道特征图 F(j)而不是 K 类激活。共享级联从 Side-1-3 复制底部特征 F = {F(1),F(2),F(3)},分别与 K 个顶部激活的每一个相连接:

图片

到的连接激活图再被馈送到有 K-分组卷积的融合分类层,产生 K-通道激活图 A(6)。

通常 CASENet 被认为是联合边缘检测和分类的网络,它让较低级的特征参与并通过跳层结构增强高级的语义分类。

下图是 CASENet 和 DSN 的结果比较,从左到右:输入,基础事实,DSN 和 CASENet。CASENet 在具有挑战性的目标上显示出更好的检测质量,而 DSN 在非边缘像素有更多的误报。

轮廓提取

1. DeepEdge

以前大多使用纹理或显著性等低级特征来检测轮廓,而 DeepEdge 利用目标相关特征作为轮廓的高级线索检测。设计的是多级深度网络,由五个卷积层和一个分叉全连接子网络(bifurcated fully-connected subnetwork)组成。从输入层到第五个卷积层是预训练网络,直接用于图像输入的四个不同尺度。将这四个平行且相同的数据流连接到两个独立训练的分支组成的分叉子网络,一个分支学习预测轮廓似然(以分类为目标),而另一个分支训练学习在给定点轮廓的存在(基于回归测度),如图是 DeepEdge 架构图,其中 Canny 边缘检测器提取候选轮廓点,然后在每个候选点周围,提取四个不同尺度的补丁,同时通过预训练的 KNet 五个卷积层。

一个解释模型架构的单尺度示意图,在下图给出:首先,输入以候选点为中心的补丁,经过 KNet 五个卷积层;为了提取高级特征,在每个卷积层提取围绕中心点的特征图的小子容积,并在子容积上执行最大、平均和中心池化。池化值馈入分叉子网络。测试时,从分叉子网络的分支计算的标量输出做平均,生成最终轮廓预测。

图片

如图给出部分实验结果:左到右依次为输入图像、Canny 边缘检测器产生的候选点集合、非阈值预测、阈值预测和基础事实图。为了生成阈值预测,概率阈值设为0.5。

图片

2. CEDN

另外一种方法利用全卷积编码器-解码器网络(CEDN),端到端训练的数据来自 PASCAL VOC 中修正的不准确的多边形标注,其网络架构如图所示。

图片

部分实验结果见图:从左到右依此是(a)输入图像,(b)GT 轮廓,(c)具有预训练 CEDN 的轮廓检测,和(d)具有细调 CEDN 的轮廓检测。

图片


更多科研资源获取:

➤ 添加助理无偿自取

【一】上千篇CVPR、ICCV顶会论文
【二】动手学习深度学习、花书、西瓜书等AI必读书籍
【三】机器学习算法+深度学习神经网络基础教程
【四】OpenCV、Pytorch、YOLO等主流框架算法实战教程

  • 32
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
import cv2 as cv import numpy as np def scan_edge_demo(img): gray = cv.cvtColor(img,cv.COLOR_BGR2GRAY) gray = cv.GaussianBlur(gray,(3,3),0) scan_edge = cv.Canny(gray,60,150) return scan_edge def scan_contours(img): scan_edge =scan_edge_demo(img) aa,contours,b= cv.findContours(scan_edge,cv.RETR_TREE,cv.CHAIN_APPROX_SIMPLE) cv.drawContours(img,contours,-1,(0,255,255),thickness=4) cv.imshow("scan_contours",img) src = cv.imread("E:/opencv/picture/taijie.png") cv.imshow("inital_window",src) scan_contours(src) cv.waitKey(0) cv.destroyAllWindows() 图片: 分析: 1.Opencv发现轮廓的函数原型为:findContours(image, mode, method[, contours[, hierarchy[, offset]]]) -> image, contours, hierarchy image参数表示8位单通道图像矩阵,可以是灰度图,但更常用的是二值图像,一般是经过Canny、拉普拉斯等边缘检测算子处理过的二值图像。 所以输入源需要二值化(threshold)处理或者边缘处理canny后才行 mode参数表示轮廓检索模式: ①CV_RETR_EXTERNAL:只检测最外围轮廓,包含在外围轮廓内的内围轮廓被忽略。 ②CV_RETR_LIST:检测所有的轮廓,包括内围、外围轮廓,但是检测到的轮廓不建立等级关系,彼此之间独立,没有等级关系,这就意味着这个检索模式下不存在父轮廓或内嵌轮廓。 ③CV_RETR_CCOMP:检测所有的轮廓,但所有轮廓只建立两个等级关系,外围为顶层,若外围内的内围轮廓还包含了其他的轮廓信息,则内围内的所有轮廓均归属于顶层。 ④CV_RETR_TREE:检测所有轮廓,所有轮廓建立一个等级树结构,外层轮廓包含内层轮廓,内层轮廓还可以继续包含内嵌轮廓。 method参数表示轮廓的近似方法: ①CV_CHAIN_APPROX_NONE 存储所有的轮廓点,相邻的两个点的像素位置差不超过1,即max (abs (x1 - x2), abs(y2 - y1) == 1。 ②CV_CHAIN_APPROX_SIMPLE压缩水平方向,垂直方向,对角线方向的元素,只保留该方向的终点坐标,例如一个矩形轮廓只需4个点来保存轮廓信息。 ③CV_CHAIN_APPROX_TC89_L1,CV_CHAIN_APPROX_TC89_KCOS使用teh-Chinl chain 近似算法。 contours参数是一个list,表示存储的每个轮廓的点集合。 hierarchy参数是一个list,list中元素个数和轮廓个数相同,每个轮廓contours[i]对应4个hierarchy元素hierarchy[i][0] ~hierarchy[i][3],分别表示后一个轮廓、前一个轮廓、父轮廓、内嵌轮廓的索引编号,如果没有对应项,则该值为负数。 offset参数表示每个轮廓点移动的可选偏移量。 2.Opencv绘制轮廓的函数原型为:drawContours(image, contours, contourIdx, color[, thickness[, lineType[, hierarchy[, maxLevel[, offset]]]]]) -> image imgae参数表示目标图像。 contours参数表示所有输入轮廓。 contourIdx参数表示绘制轮廓list中的哪条轮廓, 如果是负数,则绘制所有轮廓。 color参数表示轮廓的颜色。 thickness参数表示绘制的轮廓线条粗细,如果是负数,则绘制轮廓内部。 lineType参数表示线型。 hierarchy参数表示有关层次结构的可选信息。 maxLevel参数表示绘制轮廓的最大级别。 如果为0,则仅绘制指定的轮廓。 如果为1,则该函数绘制轮廓和所有嵌套轮廓。 如果为2,则该函数绘制轮廓,所有嵌套轮廓,所有嵌套到嵌套的轮廓,等等。 仅当有可用的层次结构时才考虑此参数。 offset参数表示可选的轮廓偏移参数,该参数可按指定的方式移动所有绘制的轮廓。 关于轮廓检测,什么的样的情况会被判断为轮廓呢? 答:因为在做轮廓检测之前需要进行二值化,所以对于图像的整个ROI区域只有黑白两个颜色,而下面两种情况会被检测作为轮廓: 1. 白色区域与黑色区域的边缘交接区域 2. 当背景为白色时,整个ROI区域的外边界就会被视为轮廓。(往往我们希望背景是黑色,所以如果出现这种情况时我们需要在二值化图像时对图像取反)。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值