程序员学长 | 快速学习一个算法,UNet

本文来源公众号“程序员学长”,仅用于学术分享,侵权删,干货满满。

原文链接:快速学习一个算法,UNet

今天给大家分享一个超强的算法模型,UNet

UNet 是一种卷积神经网络架构,最初由 Olaf Ronneberger 等人在 2015 年提出,主要用于生物医学图像分割任务

https://arxiv.org/abs/1505.04597

其设计思想在于通过编码器-解码器结构,逐步提取图像特征并进行多尺度融合,从而实现高精度的像素级别分割

由于其有效的结构以实现精确的图像分割,UNet 已在生物医学成像以外的各种图像分割任务中广受欢迎。

Unet 架构

UNet 架构以其 U 形结构而著称,它由两个主要部分组成:收缩(下采样)路径和扩展(上采样)路径。

收缩路径

从架构中我们可以看到,收缩路径采用传统的卷积神经网络结构,通过一系列的卷积层和池化层逐步减少空间维度(即图像尺寸)并增加特征通道的数量。

每个卷积操作通常包括两次 3x3 的卷积,紧接着是一个ReLU 激活函数和一个 2x2 的最大池化操作。

池化操作减少了图像的尺寸,使得网络能够更广泛地获取上下文信息。

关于卷积神经网络中的卷积操作和最大池化操作可以参考下面这篇文章。

快速学会一个算法,CNN

扩展路径

UNET 架构的一个关键组件是扩展路径。它负责对扩展路径的特征图进行上采样并构建最终的分割掩码。

上采样层(反卷积)

每个上采样操作通过 2x2 的反卷积将图像尺寸扩大一倍,然后通过与收缩路径对应层的特征进行拼接。

反卷积本质上与常规卷积相反。它们增强空间维度而不是减少空间维度,从而允许上采样。

反卷积操作的基本原理

反卷积操作的目标是将输入特征图的空间尺寸放大,而不像普通卷积那样缩小空间尺寸。它通过在输入特征图之间插入零值,然后对插值后的特征图进行标准卷积运算,从而实现上采样。

具体步骤如下:

  1. 插值

    在输入特征图的每个元素之间插入零值,以增加特征图的尺寸。例如,如果插值因子为2,则每个元素之间插入一个零值,使得特征图的尺寸扩大一倍。

  2. 卷积运算

    对插值后的特征图应用标准卷积操作。这一步通过卷积核在插值后的特征图上滑动并进行卷积计算,从而生成输出特征图。

跳跃连接

跳跃连接将编码器(收缩路径)中某一层的特征图直接连接到解码器(扩展路径)中相应层的特征图。

通过这些连接,编码器提取的低层特征(高分辨率)能够直接传递到解码器的相应层,使网络能够聚合多尺度信息以实现正确的分割。

跳跃链接的作用

  1. 特征融合

    编码器提取的特征包含了输入图像的丰富细节信息,但由于下采样过程,这些细节在深层次可能会被丢失。跳跃链接通过将这些细节信息直接传递给解码器,使得解码器在进行上采样时能够更好地融合这些细节,提高了分割结果的精度。

  2. 梯度流动

    在深度神经网络中,梯度在反向传播过程中可能会逐渐减小(梯度消失问题),导致训练困难。

    跳跃链接提供了额外的梯度路径,帮助梯度更有效地流动,从而缓解梯度消失问题,加速模型的训练过程。

从头开始构建 UNet 模型

让我们从头来实现一个 UNet 模型。

1.加载必要的库
from tensorflow.keras.layers import Conv2D
from tensorflow.keras.layers import BatchNormalization, Activation, MaxPool2D
from tensorflow.keras.layers import  Conv2DTranspose, Concatenate, Input
from tensorflow.keras.models import Model
2.构建卷积块

卷积块将 2D 卷积层应用于输入张量,然后进行批量归一化和 ReLU 激活。然后再应用另一个卷积层、批量归一化和 ReLU 激活,然后返回输出张量。

def conv_block(input, num_filters):
    x = Conv2D(num_filters, 3, padding="same")(input)
    x = BatchNormalization()(x)
    x = Activation("relu")(x)
    x = Conv2D(num_filters, 3, padding="same")(x)
    x = BatchNormalization()(x)
    x = Activation("relu")(x)
    return x
3.构建编码器模块

UNet 架构中的编码器块执行下采样和特征提取。

它对输入张量应用卷积运算,然后进行最大池化以减少空间维度。

该块生成处理后的张量和下采样后的张量,后续层利用这些张量进行进一步处理和特征提取。

def encoder_block(input, num_filters):
    x = conv_block(input, num_filters)
    p = MaxPool2D((2, 2))(x)
    return x, p
4.构建解码器块

UNet 架构中的解码器块执行上采样并合并跳跃连接。

它应用反卷积将输入张量上采样 2 倍。然后将上采样的张量与来自相应编码器块的张量通过跳跃连接连接起来。

然后进一步应用卷积块来细化合并的特征。解码器块的输出张量用于后续层以进行进一步处理。

def decoder_block(input, skip_features, num_filters):
    x = Conv2DTranspose(num_filters, (2, 2), strides=2, padding="same")(input)
    x = Concatenate()([x, skip_features])
    x = conv_block(x, num_filters)
    return x
5.构建 UNET 模型

build_unet 函数构建一个用于图像分割的 UNet 模型。

它应用编码器块来下采样和捕获特征,然后使用卷积块进行高级表示,之后应用解码器块用于上采样和合并跳过连接。

该模型生成一个具有 S 形激活的输出张量,表示前景类的像素概率。

def build_unet(input_shape):
    inputs = Input(input_shape)

    s1, p1 = encoder_block(inputs, 64)
    s2, p2 = encoder_block(p1, 128)
    s3, p3 = encoder_block(p2, 256)
    s4, p4 = encoder_block(p3, 512)

    b1 = conv_block(p4, 1024)

    d1 = decoder_block(b1, s4, 512)
    d2 = decoder_block(d1, s3, 256)
    d3 = decoder_block(d2, s2, 128)
    d4 = decoder_block(d3, s1, 64)

    outputs = Conv2D(1, 1, padding="same", activation="sigmoid")(d4)

    model = Model(inputs, outputs, name="U-Net")
    return model

现在我们已经从头开始构建了 UNet 模型。

THE END !

文章结束,感谢阅读。您的点赞,收藏,评论是我继续更新的动力。大家有推荐的公众号可以评论区留言,共同学习,一起进步。

  • 14
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值