一个小的神经网络结构
我对神经网络代码结构不太了解,于是尝试写了一个小的神经网络,网络本身没有什么意义,只是希望理清一些数据结构和网络功能。代码:
import torch
import torch.nn as nn
class mymodel(nn.Module): #网络结构
def __init__(self):
super(mymodel, self).__init__()
self.model1 = Sequential(
Conv2d(3, 32, 5, padding=2),
MaxPool2d(2),
Conv2d(32, 32, 5, padding=2),
MaxPool2d(2),
Conv2d(32, 64, 5, padding=2),
MaxPool2d(2),
Flatten(),
Linear(1024, 64),
Linear(64, 10)
)
def forward(self, x):
x = self.model1(x)
return x
model = mymodel()
x = torch.randn(1,3,32,32)
x = model(x)
print(x)
class myloss(nn.Module): #bias是在__init__中定义的超参数
def __init__(self, bias = False):
super(myloss, self).__init__()
self.bias = bias
def forward(self, x, y):
loss = x * y + self.bias
return loss
loss = myloss()
y = torch.randn(1)
y = y.unsqueeze(0)
print(y)
myloss = loss(x,y)
print(myloss)
这里mymodel类是网络主干结构,说明了网络有几层、每层是什么结构,以及指定了前向传播过程;myloss类是损失函数,说明了网络用到的损失函数有几个参数,以及损失函数是如何定义的。这两个类都继承了父类nn.Module。输出:
tensor([[-0.0439, -0.1495, 0.0858, -0.0517, 0.1106, -0.0300, -0.0413, -0.0078,
-0.0511, -0.0757]], grad_fn=<AddmmBackward0>)
tensor([[-1.7011]])
tensor([[ 0.0747, 0.2543, -0.1459, 0.0879, -0.1881, 0.0510, 0.0702, 0.0132,
0.0870, 0.1287]], grad_fn=<AddBackward0>)
可逐一验证(如:-0.0439×(-1.7011)=0.0747),所以输出是合理的。这里超参数bias默认False,如果想自定义bias(比如为1),则只需要修改:
loss = myloss(1)
重新输出:
tensor([[-0.1065, -0.1594, -0.2015, 0.0609, -0.1833, -0.0479, 0.0011, -0.0898,
0.0312, -0.1229]], grad_fn=<AddmmBackward0>)
tensor([[0.9886]])
tensor([[0.8947, 0.8424, 0.8008, 1.0602, 0.8188, 0.9527, 1.0010, 0.9113, 1.0308,
0.8785]], grad_fn=<AddBackward0>)
也可逐一验证(如: -0.1065×0.9886+1=0.8947),从而输出也是合理的。
另外,forward函数里也可以加上带有默认值的参数,如:
class myloss(nn.Module): #bias是在__init__中定义的超参数
def __init__(self, bias = False):
super(myloss, self).__init__()
self.bias = bias
def forward(self, x, y, z = False): #z带有默认值False
loss = x * y + self.bias + z
return loss
如果传入z=1,只需修改
myloss = loss(x,y,1)
即可。这样以后就方便看懂和重写一些神经网络了。