今天在理解卷积神经网络的时候,看别人的例程中都用这三个函数“torch.nn.Conv1d()”、“torch.nn.BatchNorm1d()”、“torch.nn.ReLU()”来构建一个基础的卷积神经网络(可能这样表述有点不对),于是我也写了三种同样的代码准备测试一下,但是发现三个写法有三种结果。不知道原因出在哪里,有大神知道嘛。
我的输入:
运行结果为:
第一种写法:
结果为:
第二种写法为:
结果为:
今天在理解卷积神经网络的时候,看别人的例程中都用这三个函数“torch.nn.Conv1d()”、“torch.nn.BatchNorm1d()”、“torch.nn.ReLU()”来构建一个基础的卷积神经网络(可能这样表述有点不对),于是我也写了三种同样的代码准备测试一下,但是发现三个写法有三种结果。不知道原因出在哪里,有大神知道嘛。
我的输入:
运行结果为:
第一种写法:
结果为:
第二种写法为:
结果为: