【Pytorch深度学习实战】(7)深度残差网络(DRN)

  🔎大家好,我是Sonhhxg_柒,希望你看完之后,能对你有所帮助,不足请指正!共同学习交流🔎

📝个人主页-Sonhhxg_柒的博客_CSDN博客 📃

🎁欢迎各位→点赞👍 + 收藏⭐️ + 留言📝​

📣系列专栏 - 机器学习【ML】 自然语言处理【NLP】  深度学习【DL】

 🖍foreword

✔说明⇢本人讲解主要包括Python、机器学习(ML)、深度学习(DL)、自然语言处理(NLP)等内容。

如果你对这个系列感兴趣的话,可以关注订阅哟👋

1. 扩张卷积

为了简单起见,我仅引用了DilatedNet结构中的公式:

标准卷积(左),扩张卷积(右)

左边是标准卷积。右边是扩张卷积。我们可以看到在求和时,需要满足s+l*t=p,索引我们在卷积操作过程中的会跳过一些点。

当l=1时,上式表示标准卷积。

当l>1时, 上式表示扩张卷积。

标准卷积(l=1)(左),扩张卷积(l=2)(右) 上面的例子说明了l=2时的卷积过程。我们可以看到感知野比标准卷积大。

l=1(左),l=2(中),l=4(右) 上面的图显示了更多不同感知野的例子。

2. 需要扩张卷积的原因

研究结果表明,在网络末端得到的较小输出特征map,降低了语义分割的精度。

在全卷积网络(FCN,https://towardsdatascience.com/review-fcn-semantic-segmentation-eb8c9b50d2d1)中,当需要32倍的上采样时,我们只能得到非常粗略的分割结果。因此,需要更大的输出特征map。

一种简单的方法是删除网络中的下采样(跨步)步骤,以提高特征map的分辨率。然而,这也减少了感知野,从而严重减少了获得的上下文信息。因为更高的分辨率而产生的感知野减少的代价是不值得的。

因此,扩张卷积用于增加后面网络层的感知野,补偿去除下采样而引起的感知野减少。

研究发现,使用扩张卷积也有助于这篇文章中的图像分类任务。

3. 扩张残差网络 (DRN)

本文采用d作为扩张因子。

当d=1时,为标准卷积。

当d>为1时,为扩张卷积。

始的残差网络(https://towardsdatascience.com/review-resnet-winner-of-ilsvrc-2015-image-classification-localization-detection-e39402bfa5d8

在原残差网络中,最后两组卷积层G4和G5使用3×3标准卷积(d=1):

由于最大池化层的存在,特征map变得越来越小。

输出特征map的大小只有7×7。这并没有前面提到的那样好。

扩张残差网络(DRN)

在DRN中,在G4层,卷积采用d=2:

在G5层,对于第一次卷积(i=1),仍然采用d=2:

在G5层,对于剩余的卷积(i>1),采用d=4:

最后,DRN中G5层的输出为28×28,远远大于原始的ResNet(https://towardsdatascience.com/review-resnet-winner-of-ilsvrc-2015-image-classification-localization-detection-e39402bfa5d8)。

4. 定位

对于图像分类任务,最后是一个全局平均池化,然后是1×1卷积层和softmax层。要将模型用于定位,只需删除平均池化。不涉及任何训练或参数调优。准确的分类DRN可以直接用于定位。

5. 去网格化

当特征图的频率比扩张卷积的采样率高时,就会出现网格化效应,如上所示。

DRN-A(上),DRN-B(中),DRN-C(下) DRN-A:仅有膨胀卷积的网络,有网格效应。

DRN-B: 研究发现,第一个最大池化操作会导致高幅度高频率的激活值。因此,将第一个最大池化层替换为2个残差块(4个3×3卷积层),以减少网格效应。在网络的末端还添加了2个残差块。

DRN-C: 在网络的末端,扩张率逐渐降低,以消除混叠效应,如先进行2倍膨胀的卷积,再进行1倍膨胀的卷积。然而,混叠效应仍然存在,因为它可以通过残差连接传递。因此,相应的残差连接被删除。

ResNet-18和相应DRNs的激活图

上面展示了一个可视化。

DRN-A-18: 随着卷积的扩张,存在网格效应。

DRN-B-26: 使用卷积代替最大池化,特征map网格效应减少了。

DRN-C-26: 随着扩张卷积的逐步缩小和残差连接的去除,网格效应进一步减小。

DRN-C-26中不同层级的特征map的可视化(显示了每层的最高平均激活值)

6. 结果

6.1. ImageNet图像分类

ImageNet验证集的Top-1和Top-5错误率 DRN-A-18和DRN-A-34的1-crop top-1准确率分别比ResNet-18和ResNet-34高2.43和2.92个百分点。(从ResNet-34到DRN-A-34,相对误差降低了10.5%。)

DRN-A-50在1-crop top-1准确率上超过ResNet-50一个百分点。

将ResNet直接转换为DRN-A,完全不改变模型的深度或容量,但是显著提高了分类精度。 每个DRN-C模型都显著优于相应的DRN-A。

由DRN-A-18衍生而来的DRN-C-26,其精度与较深的DRN-A-34相当。

由DRN-A-34衍生而来的DRN-C-42,其精度与较深的DRN-A-50相当。

DRN-C-42接近ResNet-101的精度,但后者层数是前者的2.4倍。

6.2. ImageNet目标检测

这里基于特征map激活值进行弱监督目标检测。

C=1000,因为ImageNet是一个1000类的ImageNet数据集。

在分辨率为W×H的C响应map中,f(C, W, H)为位置(W, H)的响应,每个位置的最可能的类别为g(W, H),边界框集合为Bi,其中t为激活阈值。bi为在Bi中选择的最小边界框。

与ground-truth的IOU大于0.5的框,被认为是准确的。

ImageNet验证集目标检测Top-1和Top-5错误率

DRN的性能优于相应的ResNet模型,说明了基本DRN结构的优势。DRN-C-26的性能明显优于DRN-A-50,尽管深度要低得多。这表明,去网格化方案对于需要更详细的空间图像分析的应用程序具有特别显著的好处。

DRN-C-26也优于ResNet-101。

深度残差网络Pytorch的实现


 
 
  1. import torch
  2. import torch.nn as nn
  3. import torchvision
  4. import torchvision.transforms as transforms
  5. # 设备配置
  6. device = torch.device( 'cuda' if torch.cuda. is_available() else 'cpu')
  7. # 超参数
  8. num_epochs = 80
  9. batch_ size = 100
  10. learning_rate = 0.001
  11. # 图像预处理模块
  12. transform = transforms.Compose([
  13. transforms.Pad( 4),
  14. transforms.RandomHorizontalFlip(),
  15. transforms.RandomCrop( 32),
  16. transforms.ToTensor()])
  17. # CIFAR- 10 数据集
  18. train_dataset = torchvision.datasets.CIFAR 10(root = '../../data/',
  19. train = True,
  20. transform =transform,
  21. download = True)
  22. test_dataset = torchvision.datasets.CIFAR 10(root = '../../data/',
  23. train = False,
  24. transform =transforms.ToTensor())
  25. # 数据加载器
  26. train_loader = torch.utils. data.DataLoader(dataset =train_dataset,
  27. batch_ size =batch_ size,
  28. shuffle = True)
  29. test_loader = torch.utils. data.DataLoader(dataset = test_dataset,
  30. batch_ size =batch_ size,
  31. shuffle = False)
  32. # 3x 3 卷积
  33. def conv 3x 3( in_channels, out_channels, stride = 1):
  34. return nn.Conv 2d( in_channels, out_channels, kernel_ size = 3,
  35. stride =stride, padding = 1, bias = False)
  36. # 残差快
  37. class ResidualBlock(nn.Module):
  38. def __init__( self, in_channels, out_channels, stride = 1, downsample =None):
  39. super(ResidualBlock, self).__init__()
  40. self.conv 1 = conv 3x 3( in_channels, out_channels, stride)
  41. self.bn 1 = nn.BatchNorm 2d(out_channels)
  42. self.relu = nn.ReLU(inplace = True)
  43. self.conv 2 = conv 3x 3(out_channels, out_channels)
  44. self.bn 2 = nn.BatchNorm 2d(out_channels)
  45. self.downsample = downsample
  46. def forward( self, x):
  47. residual = x
  48. out = self.conv 1(x)
  49. out = self.bn 1(out)
  50. out = self.relu(out)
  51. out = self.conv 2(out)
  52. out = self.bn 2(out)
  53. if self.downsample:
  54. residual = self.downsample(x)
  55. out + = residual
  56. out = self.relu(out)
  57. return out
  58. # ResNet
  59. class ResNet(nn.Module):
  60. def __init__( self, block, layers, num_classes = 10):
  61. super(ResNet, self).__init__()
  62. self. in_channels = 16
  63. self.conv = conv 3x 3( 3, 16)
  64. self.bn = nn.BatchNorm 2d( 16)
  65. self.relu = nn.ReLU(inplace = True)
  66. self.layer 1 = self.make_layer( block, 16, layers[ 0])
  67. self.layer 2 = self.make_layer( block, 32, layers[ 1], 2)
  68. self.layer 3 = self.make_layer( block, 64, layers[ 2], 2)
  69. self.avg_pool = nn.AvgPool 2d( 8)
  70. self.fc = nn.Linear( 64, num_classes)
  71. def make_layer( self, block, out_channels, blocks, stride = 1):
  72. downsample = None
  73. if (stride ! = 1) or ( self. in_channels ! = out_channels):
  74. downsample = nn. Sequential(
  75. conv 3x 3( self. in_channels, out_channels, stride =stride),
  76. nn.BatchNorm 2d(out_channels))
  77. layers = []
  78. layers.append( block( self. in_channels, out_channels, stride, downsample))
  79. self. in_channels = out_channels
  80. for i in range( 1, blocks):
  81. layers.append( block(out_channels, out_channels))
  82. return nn. Sequential( *layers)
  83. def forward( self, x):
  84. out = self.conv(x)
  85. out = self.bn(out)
  86. out = self.relu(out)
  87. out = self.layer 1(out)
  88. out = self.layer 2(out)
  89. out = self.layer 3(out)
  90. out = self.avg_pool(out)
  91. out = out.view(out. size( 0), - 1)
  92. out = self.fc(out)
  93. return out
  94. model = ResNet(ResidualBlock, [ 2, 2, 2]). to(device)
  95. # 损失和优化器
  96. criterion = nn.CrossEntropyLoss()
  97. optimizer = torch.optim.Adam(model.parameters(), lr =learning_rate)
  98. # 用于更新学习率
  99. def update_lr(optimizer, lr):
  100. for param_ group in optimizer.param_groups:
  101. param_ group[ 'lr'] = lr
  102. # 训练模型
  103. total_step = len(train_loader)
  104. curr_lr = learning_rate
  105. for epoch in range(num_epochs):
  106. for i, (images, labels) in enumerate(train_loader):
  107. images = images. to(device)
  108. labels = labels. to(device)
  109. # 前向传播
  110. outputs = model(images)
  111. loss = criterion(outputs, labels)
  112. # 向后优化
  113. optimizer. zero_grad()
  114. loss.backward()
  115. optimizer.step()
  116. if (i + 1) % 100 = = 0:
  117. print ( "Epoch [{}/{}], Step [{}/{}] Loss: {:.4f}"
  118. . format(epoch + 1, num_epochs, i + 1, total_step, loss.item()))
  119. # 衰减学习率
  120. if (epoch + 1) % 20 = = 0:
  121. curr_lr / = 3
  122. update_lr(optimizer, curr_lr)
  123. # 测试模型
  124. model.eval()
  125. with torch. no_grad():
  126. correct = 0
  127. total = 0
  128. for images, labels in test_loader:
  129. images = images. to(device)
  130. labels = labels. to(device)
  131. outputs = model(images)
  132. _, predicted = torch.max(outputs. data, 1)
  133. total + = labels. size( 0)
  134. correct + = (predicted = = labels). sum().item()
  135. print( 'Accuracy of the model on the test images: {} %'. format( 100 * correct / total))
  136. # 模型保存
  137. torch.save(model.state_dict(), 'resnet.ckpt')

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PyTorch深度学习实战中,可以使用卷积神经网络来进行图像分类任务。在实战中,可以使用经典的卷积神经网络模型,如VGG、ResNet、Inception和DenseNet等。这些模型都是在深度学习的发展过程中出现的经典模型,对深度学习的学术研究和工业生产都起到了巨大的促进作用。初学者可以通过阅读论文和实现代码来全面了解这些模型。例如,可以使用PyTorch中的torchvision.models模块来加载预训练的卷积神经网络模型,如VGG-16、VGG-19和ResNet等\[1\]。其中,VGG-16和VGG-19是由卷积层、池化层和全连接层等不同组合构成的经典卷积神经网络模型\[1\]。而ResNet是一种使用残差单元连接而成的卷积神经网络模型,通过跨层的短接来突出微小的变化,使得网络对误差更加敏感,并解决了网络退化现象,具有良好的学习效果\[2\]\[3\]。因此,在PyTorch深度学习实战中,可以选择合适的卷积神经网络模型来进行图像分类任务。 #### 引用[.reference_title] - *1* *2* *3* [PyTorch深度学习实战 | 典型卷积神经网络](https://blog.csdn.net/qq_41640218/article/details/129832298)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值