深度学习--基于CNN实现自己数据的训练完整流程

基于上一篇原理的学习,现在基于Pytorch框架实现简单的CNN网络搭建已经完整的训练流程。 

部分代码在下述展示。

CNNet:

import torch.nn as nn
import torch.nn.functional as F


class CNNet(nn.Module):
    def __init__(self):
        super(CNNet, self).__init__()
        self.conv1 = nn.Sequential(
            nn.Conv2d(in_channels=3, out_channels=16, kernel_size=3, stride=2),
            nn.BatchNorm2d(16),
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=2)
        )
        self.conv2 = nn.Sequential(
            nn.Conv2d(in_channels=16, out_channels=32, kernel_size=3, stride=2),
            nn.BatchNorm2d(32),
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=2)
        )
        self.conv3 = nn.Sequential(
            nn.Conv2d(in_channels=32, out_channels=64, kernel_size=3, stride=2),
            nn.BatchNorm2d(64),
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=2)
        )
        self.linear1 = nn.Linear(3 * 3 * 64, 64)
        self.linear2 = nn.Linear(64, 10)
        self.output = nn.Linear(10, 2)
        self.relu = nn.ReLU()

    def forward(self, x):  # 64*3*256*256
        x = self.conv1(x) # 64*16*63*63
        x = self.relu(x)
        x = self.conv2(x)  # 64*32*15*15
        x = self.relu(x)
        x = self.conv3(x)
        x = self.relu(x)  # 64*64*3*3
        x = x.view(x.shape[0], -1)  # 64*576
        x = self.relu(self.linear1(x))
        x = self.relu(self.linear2(x))
        x = self.output(x)
        x = F.log_softmax(x, dim=1)
        return x

完整代码可以访问于Github

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值