出现在CoRRN中的MMDLoss中,例:
x = x.view(x.size(0), x.size(2) * x.size(3))
y = y.view(y.size(0), y.size(2) * y.size(3))
x.view(x.size(0), -1)的用法:
在CNN中,因为卷积或者池化之后需要连接全连接层,所以需要把多维度的tensor展平成一维,因此用它来实现
具体解释:(参考)
class NET(nn.Module):
def __init__(self,batch_size):
super(NET,self).__init__()
self.conv = nn.Conv2d(outchannels=3,in_channels=64,kernel_size=3,stride=1)
self.fc = nn.Linear(64*batch_size,10)
def forward(self,x):
x = self.conv(x)
x = x.view(x.size(0), -1)
out = self.fc(x)
上面是个简单的网络结构,包含一个卷积层和一个分类层。forward()函数中,input首先经过卷积层,此时的输出x是包含batchsize维度为4的tensor,即(batchsize,channels,x,y),x.size(0)指batchsize的值。x = x.view(x.size(0), -1)简化x = x.view(batchsize, -1)。
view()函数的功能根reshape类似,用来转换size大小。x = x.view(batchsize, -1)中batchsize指转换后有几行,而-1指在不告诉函数有多少列的情况下,根据原tensor数据和batchsize自动分配列数。