创建nn.SequentialCell,运行代码时里面的nn.Conv2d报错

这是我的部分代码片段

        ms_group_norm = nn.GroupNorm(32, 2048*wf)
        relu = nn.ReLU
        adaptive_avg_pool_2d = ms.ops.AdaptiveAvgPool2D(output_size=1)
        conv2d = nn.Conv2d(2048*wf, head_size, kernel_size=1, has_bias=True)
        self.head = nn.SequentialCell(OrderedDict([
            ('gn', ms_group_norm),
            ('relu', relu),
            ('avg', adaptive_avg_pool_2d),
            ('conv', conv2d),
        ]))

运行后报错:

Traceback (most recent call last):
  File "C:/Users/Administrator/PycharmProjects/BiT/train.py", line 303, in <module>
    main(parser.parse_args())
  File "C:/Users/Administrator/PycharmProjects/BiT/train.py", line 184, in main
    model = models.KNOWN_MODELS[args.model](head_size=10, zero_head=True)
  File "C:\Users\Administrator\PycharmProjects\BiT\models.py", line 223, in <lambda>
    ('BiT-M-R152x4', lambda *a, **kw: ResNetV2([3, 8, 36, 3], 4, *a, **kw)),
  File "C:\Users\Administrator\PycharmProjects\BiT\models.py", line 188, in __init__
    ('conv', nn.Conv2d(2048*wf, head_size, kernel_size=1, has_bias=True)),
  File "C:\ProgramData\Anaconda3\envs\mindspore\lib\site-packages\mindspore\nn\layer\container.py", line 153, in __init__
    self.insert_child_to_cell(name, cell)
  File "C:\ProgramData\Anaconda3\envs\mindspore\lib\site-packages\mindspore\nn\cell.py", line 915, in insert_child_to_cell
    raise TypeError(f"For 'insert_child_to_cell', the argument 'child_cell' should be 'Cell' if not None, "
TypeError: For 'insert_child_to_cell', the argument 'child_cell' should be 'Cell' if not None, but got type <class 'pybind11_builtins.pybind11_type'>.

nn.Conv2d在定义时应该是继承了Cell的吧,为什么会报错呢?是我的创建实例时的问题吗?

****************************************************解答*****************************************************

这个改成Cell试一下 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
nn.Conv2dnn.functional.conv2d是PyTorch中用于进行二维卷积操作的两种方式,它们之间有以下区别: 1. 类与函数:nn.Conv2d是一个类,需要实例化为对象后才能使用,而nn.functional.conv2d是一个函数,可以直接调用。 2. 继承关系:nn.Conv2dnn.Module类的子类,因此它可以被用作神经网络模型的一部分,并且可以在模型的forward方法中被调用。而nn.functional.conv2d不是nn.Module的子类,它是一个纯函数,只能在模型的forward方法中被调用。 3. 参数传递:nn.Conv2d的参数需要在实例化进行传递,包括输入通道数、输出通道数、卷积核大小等。而nn.functional.conv2d的参数需要在每次调用传递,包括输入张量、卷积核、步长、填充等。 4. 内部实现:nn.Conv2d使用了可学习的参数,包括卷积核权重和偏置项,这些参数会在训练过程中进行更新。而nn.functional.conv2d没有可学习的参数,它只是对输入张量进行卷积操作。 下面是一个示例代码,展示了如何使用nn.Conv2dnn.functional.conv2d进行二维卷积操作: ```python import torch import torch.nn as nn import torch.nn.functional as F # 使用nn.Conv2d进行卷积操作 conv1 = nn.Conv2d(3, 64, kernel_size=3, stride=1, padding=1) input1 = torch.randn(1, 3, 32, 32) output1 = conv1(input1) # 使用nn.functional.conv2d进行卷积操作 input2 = torch.randn(1, 3, 32, 32) kernel = torch.randn(64, 3, 3, 3) output2 = F.conv2d(input2, kernel, stride=1, padding=1) print(output1.shape) print(output2.shape) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值