这个是继上篇自动求导后又一最重要的内容,因此,不要犹豫了,赶紧往下看!
废话不多说,上车吧,少年。
#!/usr/bin/env python
# -*- coding:utf-8 -*-
# Author: yehaizi time:2019/8/14:10:30
# 神经网络包nn和优化器optm
# torch.nn是专门为神经网络设计的模块化接口。nn构建于 Autograd之上,可用来定义和运行神经网络。 这里我们主要介绍几个一些常用的类
# 约定:torch.nn 我们为了方便使用,会为他设置别名为nn,本章除nn以外还有其他的命名约定
# 除了nn别名以外,我们还引用了nn.functional,这个包中包含了神经网络中使用的一些常用函数,这些函数的特点是,不具有可学习的参数
# (如ReLU,pool,DropOut等),这些函数可以放在构造函数中,也可以不放,但是这里建议不放。
# 一般情况下我们会将nn.functional 设置为大写的F,这样缩写方便调用
# PyTorch中已经为我们准备好了现成的网络模型,只要继承nn.Module,并实现它的forward方法,PyTorch会根据autograd,
# 自动实现backward函数,在forward函数中可使用任何tensor支持的函数,还可以使用if、for循环、print、log等Python语法,
# 写法和标准的Python写法一致。
import torch
import torch.nn as nn
import torch.nn.functional as F
#打印一下版本
print(torch.__version__)
# 定义一个网络
# 类Net从类nn.module中继承下来的
class Net(nn.Module):
def __init__(self):
# nn.Module子类的函数必须在构造函数中执行父类的构造函数,这个是父类的构造函数
super(Net, self).__init__()
# 卷积层 '1'表示输入图片为单通道, '6'表示输出通道数,'3'表示卷积核为3*3 此处应该有6个卷积核
self.conv1 = nn.Conv2d(1, 6, 3)
# 线性层,输入1350个特征,输出10个特征 应该是说全连接层
self.fc1 = nn.Linear(1350, 10) # 这里的1350是如何计算的呢?这就要看后面的forward函数
# 正向传播
def forward(self, x):
print(x.size()) # 结果:[1, 1, 32, 32]
# 卷积 -> 激活 -> 池化
x = self.conv1(x) 第四节 卷积神经网络 有详细介绍。
x = F.relu(x)
print(x.size()) # 结果:[1, 6, 30, 30]
x = F.max_pool2d(x, (2, 2)) # 我们使用池化层,计算结果是15
x = F.relu(x)
print(x.size()) # 结果:[1, 6, 15, 15]
# reshape,‘-1’表示自适应
# 这里做的就是压扁的操作 就是把后面的[1, 6, 15, 15]压扁,变为 [1, 1350]
# view()可以改变维度大小
x = x.view(x.size()[0], -1)
print(x.size()) # 这里就是fc1层的的输入1350
x = self.fc1(x)
return x
net = Net()
print(net)
for parameters in net.parameters():
print(parameters)
# 这里的对应前面forward的输入是32
input = torch.randn(1, 1, 32, 32)
out = net(input)
out.size()