基于python实现resnet_Python深度学习(4)——BN层与RESNET+densenet实现,Pytorch,4BN,层及,ResNetDenseNet...

本文详细介绍了如何使用Python的PyTorch库实现ResNet和DenseNet深度学习模型。首先讲解了批量归一化(BN)层的作用,接着深入到ResNet的残差块设计,包括如何通过1x1卷积调整通道数。然后,构建了ResNet模型,包括四个残差块。最后,阐述了DenseNet的稠密块和过滤层结构,并给出了完整的DenseNet模型实现。
摘要由CSDN通过智能技术生成

1.批量归一化(BN)

nn.BatchNorm2d(6) — 卷积层使用,超参数为输出通道数

nn.BatchNorm1d(120) – 全连接层使用,超参数为输出单元个数

2.ResNet

2.1 残差块

输入为X + Y,因而X Y的输出通道要一致

可以用1*1的卷积层来调整通道的大小

c4e2af1fad7baa821a902504e23cbb7e.png

class Residual(nn.Module):

#可以设定输出通道数、是否使用额外的1x1卷积层来修改通道数以及卷积层的步幅。

def __init__(self, in_channels, out_channels, use_1x1conv=False, stride=1):

super(Residual, self).__init__()

self.conv1 = nn.Conv2d(in_channels, out_channels, kernel_size=3, padding=1, stride=stride)

self.conv2 = nn.Conv2d(out_channels, out_channels, kernel_size=3, padding=1)

if use_1x1conv:

self.conv3 = nn.Conv2d(in_channels, out_channels, kernel_size=1, stride=stride)

else:

self.conv3 = None

self.bn1 = nn.BatchNorm2d(out_channels)

self.bn2 = nn.BatchNorm2d(out_channels)

def forward(self, X):

Y = F.relu(self.bn1(self.conv1(X)))

Y = self.bn2(self.conv2(Y))

if self.conv3:

X = self.conv3(X)

return F.relu(Y + X)

2.2 ResNet 模型实现

结构:

卷积(64,7x7,3)

批量一体化

最大池化(3x3,2)

残差块x4 (通过步幅为2的残差块在每个模块之间减小高和宽)

全局平均池化

全连接

net = nn.Sequential(</

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值