Pytorch定义深度神经网络其实就是一个层堆叠的过程,在__init__
中定义层结构,每一层可能包含卷积、池化等操作。也可以复用Pytorch底层封装好的已经成熟的网络结构对layer进行初始化。
该类中还有一个forward
函数,在实例化模型的时候,底层会自动调用该函数。该函数中可以定义学习率,为初始化定义的layer传入数据等。
一般自定义的op
,如果您想在PyTorch
中自定义OP
的话,您需要继承这个类nn.Module
,您需要在继承的时候复写forward
和backward
方法,可能还需要复写__init__
方法。您需要在forward
中定义OP
,在backward
说明如何计算梯度。forward
和backward
方法中进行计算的类型都是Tensor
,而不是我们传入的Variable。计算完forward和backward之后,会包装成Variable返回。
一般过程如下:
def MyModel(nn.Module):
def __init__(self, a, b, ...):
super(MyModel, self).__init__()
# parameters
self.para = ...
# layers
self.method = ...
def forward(self, x