Pytorch之ToPILImage()不输出图片问题

先导torchvision包

from PIL import Image
from torchvision.transforms import ToTensor,ToPILImage

定义转换操作

img_to_tensor = ToTensor() # img -> tensor
tensor_to_pil = ToPILImage() # tensor -> img

读取图片

img = Image.open('../test.jpg') # ‘’ 引号内为要读取图片的相对路径

把读取的图片转换成tensor进而对其操作,
unsqueeze(0)是在给转换后的tensor加一个维度

input = img_to_tensor(img).unsqueeze(0) #torch.Size([1, 3, 960, 720])

对图像进行一个简单的操作,此处用的3*3的kernel进行锐化卷积

kernel = t.ones(3,3)/-9.
kernel[1][1] = 1
conv = nn.Conv2d(1,1,(3,3),1,bias=False) #卷积
conv.weight.data = kernel.view(1,1,3,3) #权重

将图片传入卷积层,并输出

out = conv(V(input)) 
tensor_to_pil(out.data.squeeze(0)).show()

注意,此处若不用.show()则输出台无显示。

另附torchvision.transforms.ToTensor及torchvision.transforms.ToPILImage的转换过程

此处转载至:原文:啧啧啧biubiu 的原创文章

torchvision.transforms.ToTensor

对于一个图片img,调用ToTensor转化成张量的形式,发生的不是将图片的RGB三维信道矩阵变成tensor

图片在内存中以bytes的形式存储,转化过程的步骤是:

  1. img.tobytes() 将图片转化成内存中的存储格式
  2. torch.BytesStorage.frombuffer(img.tobytes() ) 将字节以流的形式输入,转化成一维的张量
  3. 对张量进行reshape
  4. 对张量进行permute(2,0,1)
  5. 将当前张量的每个元素除以255
  6. 输出张量

torchvision.transforms.ToPILImage

对于一个Tensor的转化过程是:

  1. 将张量的每个元素乘上255
  2. 将张量的数据类型有FloatTensor转化成Uint8
  3. 将张量转化成numpy的ndarray类型
  4. 对ndarray对象做permute (1, 2, 0)的操作
  5. 利用Image下的fromarray函数,将ndarray对象转化成PILImage形式
  6. 输出PILImage
  • 11
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
### 回答1: 下面是一个示例代码,使用 PyTorch 对图像进行裁剪: ```python import torch import torchvision.transforms as transforms # 加载图像 img = Image.open("image.jpg") # 定义裁剪区域 transform = transforms.CenterCrop((224,224)) # 应用裁剪 img_cropped = transform(img) ``` 这里我们使用 torchvision.transforms 模块中的 CenterCrop 函数对图像进行裁剪,并将裁剪后的图像赋值给变量 img_cropped 。 注意,在这个例子中,我们将图像裁剪为224x224像素大小。 ### 回答2: PyTorch是一个常用的深度学习框架,而CNN(卷积神经网络)是一种常用的神经网络结构。在PyTorch中对图片进行裁剪,可以使用torchvision库中的transforms模块进行实现。 首先,需要导入所需的库和模块: ```python import torchvision.transforms as transforms from PIL import Image ``` 然后,加载图片并进行裁剪: ```python img = Image.open('image.jpg') # 加载图片 crop_transform = transforms.CenterCrop(size) # 创建裁剪变换 cropped_img = crop_transform(img) # 对图片进行裁剪 ``` 其中,'image.jpg'是要裁剪的图片的文件路径,size是裁剪后的图片尺寸,可以是一个整数或一个元组(height, width)。 裁剪后的图片可以保存到本地: ```python cropped_img.save('cropped_image.jpg') ``` 完整的代码如下: ```python import torchvision.transforms as transforms from PIL import Image img = Image.open('image.jpg') # 加载图片 crop_transform = transforms.CenterCrop(size) # 创建裁剪变换 cropped_img = crop_transform(img) # 对图片进行裁剪 cropped_img.save('cropped_image.jpg') # 保存裁剪后的图片 ``` 以上就是使用PyTorch中的transforms模块对图片进行裁剪的代码。 ### 回答3: 在PyTorch中使用CNN裁剪图片的代码如下: ```python import torch import torch.nn as nn import torchvision.transforms as transforms # 定义裁剪函数 def crop_image(image, top, left, height, width): return image[:, top:top+height, left:left+width] # 构建模型 class CNN(nn.Module): def __init__(self): super(CNN, self).__init__() self.conv_layer = nn.Sequential( nn.Conv2d(3, 16, kernel_size=3, stride=1, padding=1), nn.ReLU(), nn.MaxPool2d(kernel_size=2, stride=2)) self.fc_layer = nn.Sequential( nn.Linear(16 * 14 * 14, 10)) def forward(self, x): x = self.conv_layer(x) x = x.view(x.size(0), -1) x = self.fc_layer(x) return x # 加载图片 img = torch.randn(1, 3, 28, 28) # 假设图片大小为28x28 # 裁剪图片 cropped_img = crop_image(img, 5, 5, 20, 20) # 从左上角裁剪一个大小为20x20的区域 # 进行预处理 transform = transforms.Compose([ transforms.ToPILImage(), transforms.ToTensor() ]) cropped_img = transform(cropped_img) # 在模型中进行前向传播 model = CNN() output = model(cropped_img.unsqueeze(0)) print(output) ``` 这是一个简单的CNN模型,使用`crop_image`函数对输入图片进行裁剪,然后使用`torchvision.transforms`进行预处理,最后将裁剪后的图片输入到模型中进行前向传播,得到输出结果。注意,这里假设输入图片的大小为28x28,裁剪出的区域从左上角开始,宽和高均为20。输出结果是模型的预测值。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值