RuntimeError: Exporting the operator repeat_interleave to ONNX opset version 9 is not supported.

UserWarning: You are trying to export the model with onnx:Upsample for ONNX opset version 9. This operator might cause results to not match the expected results by PyTorch.
ONNX's Upsample/Resize operator did not match Pytorch's Interpolation until opset 11. Attributes to determine how to transform the input were added in onnx:Resize in opset 11 to support Pytorch's behavior (like coordinate_transformation_mode and nearest_mode).
We recommend using opset 11 and above for models using this operator. 

UserWarning: ONNX export failed on ATen operator repeat_interleave because torch.onnx.symbolic_opset9.repeat_interleave does not exist

RuntimeError: Exporting the operator repeat_interleave to ONNX opset version 9 is not supported. Please open a bug to request ONNX export support for the missing operator.

 

pytorch转onnx报的错,原因是pytorch中的repeat_interleave操作在onnx中还不支持,可以把这个操作换成别的,比如coordinate_transformation_mode 和 nearest_mode

repeat_interleave() 可以用 repeat() 和 view() 替换掉

举个例子,随机一个x,x的大小是1*1*2*2,分别对应第0,1,2,3维度

我想将x的第2维度,复制4次,如下所示

x = torch.randn(1, 1, 2, 2)
x = torch.repeat_interleave(x, 4, 2)

然后,这两种方法是等价的

x = torch.randn(1, 1, 2, 2)
x = x.repeat(1, 1, 4, 1)

 

根据引用中的信息,您遇到的错误是"RuntimeError: CUDA error: CUBLAS_STATUS_NOT_SUPPORTED when calling `cublasSgemm`"。这个错误通常是由于CUDA库的不兼容性或配置问题引起的。 其中有一种可能的解决方法是检查您的CUDA版本和CUDA相关库的版本是否匹配。请确保您使用的CUDA版本与您的GPU驱动程序和其他CUDA相关库的版本兼容。 另外,引用提到过的一个解决方法是确保在使用CUDA之前先调用`torch.cuda.set_device(device)`来设置GPU设备。这可能会帮助解决一些CUDA相关的问题。 此外,引用中提到的另一个情况是内存不足的问题。您可以检查您的系统内存是否足够支持您的计算任务。 综上所述,您可以按照以下步骤尝试解决这个问题: 1. 检查CUDA版本和相关库的兼容性。 2. 在使用CUDA之前调用`torch.cuda.set_device(device)`来设置GPU设备。 3. 检查系统内存是否足够支持计算任务。 希望这些信息能对您有所帮助!<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [bug记录:RuntimeError: CUDA error: CUBLAS_STATUS_NOT_INITIALIZED when calling `cublasCreate(handle)`](https://blog.csdn.net/MarsandOcean/article/details/130237565)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *2* [Python RuntimeError: thread.__init__() not called解决方法](https://download.csdn.net/download/weixin_38630358/12877726)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *3* [RuntimeError: CUDA error: CUBLAS_STATUS_NOT_INITIALIZED when calling `cublas](https://blog.csdn.net/Yonggie/article/details/130931694)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 33.333333333333336%"] [ .reference_list ]
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值