在看一些关于姿势估计的pytorch代码时,AlphaPose我注意到一些不熟悉的语法:
基本上,我们定义了一个Darknet类,它继承了nn.Module属性,比如:class Darknet(nn.Module)
这将从一些配置文件重新构造神经网络,还定义了加载预先训练的权重和前向传递的函数
现在,正向传递采用以下参数:def forward(self, x, CUDA)
我应该注意到,类内定义forward是唯一具有CUDA属性的方法(这将在以后变得重要)
在向前传球中,我们得到了预测:
^{pr2}$
其中module[i]被构造为:module = nn.Sequential()
conv = nn.Conv2d(prev_fileters, filters, kernel_size, stride, pad, bias=bias)
module.add_module("conv_{0}".format(index), conv)
然后我们调用invoke这个模型和(我假设)一个forward方法,如下所示:self.det_model = Darknet("yolo/cfg/yolov3-spp.cfg")
self.det_model.load_weights('models/yolo/yolov3-spp.weights')
self.det_model.cpu()
self.det_model.eval()
image = image.cpu()
prediction = self.det_model(img, CUDA = False)
我假设最后一行是对前向传递的调用,但是为什么不使用.forward?这是Pythorch特定的语法还是缺少一些基本的python原则?在