pytorch实现vgg11模型

该博客介绍了如何使用 PyTorch 构建原始的 VGG11 网络结构。代码详细展示了从输入层开始,通过多个卷积层和最大池化层构建特征提取部分,然后通过全连接层进行分类,并最终应用 Softmax 函数得到概率分布。整个网络结构遵循经典的 VGG 模型设计,适用于图像识别任务。
摘要由CSDN通过智能技术生成

VGG11

这里实现最左侧的A,也就是原始的vgg11。
在这里插入图片描述

import torch
import torch.nn as nn


class VGG11(nn.Module):
    def __init__(self, input_channel):
        super().__init__()
        self.conv_layers = nn.Sequential(
            nn.Conv2d(in_channels=input_channel, out_channels=64,  # [B,64,224,224]
                      kernel_size=(3, 3), padding=(3 // 2, 3 // 2)),
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=(2, 2), stride=2),  # [B,64,112,112]
            nn.Conv2d(in_channels=64, out_channels=128,  # [B,128,112,112]
                      kernel_size=(3, 3), padding=(3 // 2, 3 // 2)),
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=(2, 2), stride=2),  # [B,128,56,56]
            # [B,256,56,56]
            nn.Conv2d(in_channels=128, out_channels=256, kernel_size=(3, 3), padding=(3 // 2, 3 // 2)),
            # [B,256,56,56]
            nn.Conv2d(in_channels=256, out_channels=256, kernel_size=(3, 3), padding=(3 // 2, 3 // 2)),
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=(2, 2), stride=2),  # [B,256,28,28]
            # [B,512,56,56]
            nn.Conv2d(in_channels=256, out_channels=512, kernel_size=(3, 3), padding=(3 // 2, 3 // 2)),
            # [B,512,56,56]
            nn.Conv2d(in_channels=512, out_channels=512, kernel_size=(3, 3), padding=(3 // 2, 3 // 2)),
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=(2, 2), stride=2),  # [B,512,14,14]
            # [B,512,28,28]
            nn.Conv2d(in_channels=512, out_channels=512, kernel_size=(3, 3), padding=(3 // 2, 3 // 2)),
            # [B,512,56,56]
            nn.Conv2d(in_channels=512, out_channels=512, kernel_size=(3, 3), padding=(3 // 2, 3 // 2)),
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=(2, 2), stride=2)  # [B,512,7,7]
        )

        self.fc_layers=nn.Sequential(
            nn.Linear(512*7*7,4096),
            nn.ReLU(),
            nn.Linear(4096,4096),
            nn.ReLU(),
            nn.Linear(4096,1000),
            nn.Softmax(dim=-1)
        )

    def forward(self, x):
        conv_out = self.conv_layers(x)
        fc_out=self.fc_layers(conv_out.view(conv_out.size(0),-1))
        return fc_out

if __name__ == '__main__':
    x = torch.randn(size=(8, 3, 224, 224))  # [N,C,W,H]
    vgg11 = VGG11(input_channel=3)
    conv_out = vgg11(x)
    print(conv_out.size())

  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值