torch神经网络模型的搭建

包含:卷积层、激活函数、池化层、全连接层

class Model(torch.nn.Module):
    def __init__(self):
        super(Model, self).__init__()
        self.convl = torch.nn.Sequential(
            torch.nn.Conv2d(1, 64, kernel_size=3, stride=1, padding=1),
            torch.nn.ReLU(),
            torch.nn.Conv2d(64, 128, kernel_size=3, stride=1, padding=1),
            torch.nn.ReLU(),
            torch.nn.MaxPool2d(stride=2, kernel_size=2)
        )
        self.dense = torch.nn.Sequential(
            torch.nn.Linear(14*14*128, 1024),
            torch.nn.ReLU(),
            torch.nn.Dropout(p=0.5),
            torch.nn.Linear(1024, 10)
        )
    def forward(self, x):
        x = self.convl(x)
        x = x.view(-1, 14*14*128)
        x = self.dense(x)
        return x

对代码进行分析:
**torch.nn.Conv2d:**用于搭建卷积层,其中的参数分别为:
输入通道数、输出通道数、卷积核大小、卷积核移动步长和padding值
**torch.nn.MaxPool2d:**池化层,其中的参数分别为:
池化窗口的大小、卷积核大小、池化窗口移动步长和padding值,参考:添加链接描述
torch.nn.Dropout:随机丢弃,此处p=0.5指随机丢弃的概率是0.5,如果不设置参数,默认也是0.5
前向传播forward中,convl()先进行卷积处理,之后用view进行扁平化处理,其中
[-1是不确定值的意思,后面再赋值,1414128是输出的大小]
添加链接描述
通过前面定义好的dense进行分类。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值