实现卷积_算法|动图演示二维卷积神经网络的实现原理

本文介绍了卷积神经网络的基础知识,包括二维卷积、扩张卷积、转置卷积和可分离卷积,强调了它们在图像处理和深度学习中的作用。通过实例解析卷积操作,并展示了不同卷积类型的动画,帮助理解其工作原理。
摘要由CSDN通过智能技术生成
02ec3ee2cd43126eeae80cfa039016e7.png

图:pixabay

现如今,卷积神经网络在人工智能领域应用的广泛性及重要性可谓是不言而喻。为了让大家对卷积的类型有一个清晰明了的认识,我可以快速概述不同类型的卷积及其好处。为了简单起见,我仅关注二维卷积。

1、卷积(Convolutions)

首先,我们需要就定义卷积层的几个参数。

2fb05c35aa65ee89f7584524c3c6f2b7.gif

图1 二维卷积、内核大小为3、步幅为1

•内核大小:内核大小定义了卷积的视野。二维的常见选择是3——即3x3像素。

•步幅:步幅定义了遍历图像时内核的步长。虽然它的默认值通常为1,但我们可以使用2的步长,类似于最大池化对图像进行下采样。

•padding:padding定义样本的边框如何处理。一(半)个padding卷积将保持空间输出尺寸等于输入尺寸,而如果内核大于1,则不加卷积将消除一些边界。

•输入和输出通道:卷积层需要一定数量的输入通道(I),并计算出特定数量的输出通道(O)。可以通过I * O * K来计算这样一层所需的参数,其中K等于内核中的值的数量。

2、扩张卷积(Dilated Convolutions)(又名阿鲁斯卷积)

扩张卷积引入另一个卷积层的参数被称为扩张率。这定义了内核中值之间的间距。扩张速率为2的3x3内核将具有与5x5内核相同的视野,而只使用9个参数。 想象一下,使用5x5内核并删除每个间隔的行和列。

d4143a9fecac63f02847152187960d28.gif

图2 二维卷积、扩展速率为2的

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值