模型创建步骤
1.构建子模块(在__init__()函数中)
2.实现正向计算(在forward()函数中)
torch.nn包含四个包/类
1:nn.Parameter : 张量子类,表示可学习参数,如weight bias
2:nn.Module : 所有网络层基类,管理网络属性
3:nn.functional:函数具体实现,卷积池化,激活函数
4:nn.init:参数初始化方法
今天主要学习nn.Module(八个属性)
1.parameters:存储管理nn.Parameter类(weight,bias,注意只存自身的这些参数,而包含的子moudle中的他们的参数存在他们的parameters中)
2.modules:存储管理nn.Moudle(比如知道linear模型里面都有哪些子层,比如你建了一个网络,里面有2个卷积两个全连接,则你的网络的Moudle属性则会记录这些)
以下不常用
3.buffer:存储管理缓冲属性()
4.*_hooks:存储管理钩子函数
总结:
1.一个module可以包含多个子module
2.一个module相当于一个运算,必须实现forward()函数
3.每个module都有8个字典管理它的属性
Eg:class Net(nn.Module):
def __init__(self):
super(Net,self).__init__()
#搭建网络结构先卷积,再进行线性变化
#卷积层,分别设置输入维度,输出维度,以及卷积核大小(更多参数可自己查下)
self.conv1=nn.Conv2d(1,6,5)
self.conv2=nn.Conv2d(6,16,5)
#线性层,参数为数据的维度
self.fc1=nn.Linear(16*5*5,120)
self.fc2=nn.Linear(120,84)
self.fc3=nn.Linear(84,10)
def forward(self,x):#真实操作过程
#按照顺序,先进行conv1,然后relu,然后max_pool2d
x=F.max_pool2d(F.relu(self.conv1(x)),(2,2))
x=F.max_pool2d(F.relu(self.conv2(x)),2)
x=x.view(-1,self.num_flat_features(x))
x=F.relu(self.fc1(x))
x=F.relu(self.fc2(x))
x=self.fc3(x)
return x
def num_flat_features(self,x):#自定义功能函数, all dimensions *batch dimension
size=x.size()[1:]
num_features=1
for s in size:
num_features*=5
return num_features
```
net=Net()
print(net)