为什么代码函数一样但结果不同?
今天在理解卷积神经网络的时候,看别人的例程中都用这三个函数“torch.nn.Conv1d()”、“torch.nn.BatchNorm1d()”、“torch.nn.ReLU()”来构建一个基础的卷积神经网络(可能这样表述有点不对),于是我也写了三种同样的代码准备测试一下,但是发现三个写法有三种结果。不知道原因出在哪里,有大神知道嘛。我的输入:运行结果为:第一种写法:结果为:第二种写法为:结果为:第三种写法为:结果为:在我的认知里,这三种写法所表示的代码实现的功能应该是一样,但



