一、先介绍一下nn.Mudule 当学习到神经网络这一模块的时候,就经常出现 nn.Module,实际上这个是习以为常的叫法,具体的:torch.nn 是一个包,这个包里面有Module类,一般我们把 torch.nn 别称为:as nn,故引用Module类的时候就用的nn.Module,神经网络所有模型的构建都是从nn.Module这个基类继承的。 二、torch.nn : 神经网络所用到的所有层结构和损失函数都来自于torch.nn这个包 卷积层:nn.Conv2() 池化层:nn.MaxPool2d() 激活函数层:nn.ReLU()、nn.CrossEntropyLoss() 标准化处理层:nn.BatchNorm2d() 线性层:nn.Linear() 三、分清楚Module和Conv2()、ReLU()、BatchNorm2d()等 他们都在torch.nn这个包里面,但是Module是个类,Conv2()、ReLU()、BatchNorm2d()是个方法,因此调用的时候 Module需要重写,Conv2()、ReLU()、BatchNorm2d()需要传入参数调用。