为了限制最后一层全连接层的输出大小,我在后面加了一个激活函数,但是发现原来好好的网络居然不收敛了,我是直接这样写的:
out = nn.ReLU()(self.fc(x))
但是改成下面这样就好了:
out = self.fc(x)
out = nn.ReLU()(x)
看了源码之后,貌似是relu有个inplace的参数默认是false,看inplace含义。后面搞懂了之后再来加吧。
为了限制最后一层全连接层的输出大小,我在后面加了一个激活函数,但是发现原来好好的网络居然不收敛了,我是直接这样写的:
out = nn.ReLU()(self.fc(x))
但是改成下面这样就好了:
out = self.fc(x)
out = nn.ReLU()(x)
看了源码之后,貌似是relu有个inplace的参数默认是false,看inplace含义。后面搞懂了之后再来加吧。