仅作为记录,大佬请跳过。
博主将手动读取的一张图块,用transforms转化成tensor(3, 512, 1024)后,喂入模型
出现Expected 4-dimensional input for 4-dimensional weight [64, 3, 7, 7], but got 3-dimensional input of size [3, 512, 1024] instead
原因
喂入模型的tensor应该是四维:
(3, 512, 1024)——(1, 3, 512, 1024)
解决
添加一行代码:
inputs=torch.unsqueeze(inputs, dim=0)
即可。
展示