图像取块

if len(input_.shape) == 3:
        h, w, _ = input_.shape
      else:
        h, w = input_.shape
        #步长,取块,子图像块
for x in range(0, h-config.image_size+1, config.stride):
        for y in range(0, w-config.image_size+1, config.stride):
          sub_input = input_[x:x+config.image_size, y:y+config.image_size] # [33 x 33]
          sub_label = label_[x+int(padding):x+int(padding)+config.label_size, y+int(padding):y+int(padding)+config.label_size] # [21 x 21]
          # Make channel value
          sub_input = sub_input.reshape([config.image_size, config.image_size, 1])  
          sub_label = sub_label.reshape([config.label_size, config.label_size, 1])

          sub_input_sequence.append(sub_input)
          sub_label_sequence.append(sub_label)
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在 PyTorch 中,可以使用 `torch.utils.data.Dataset` 和 `torch.utils.data.DataLoader` 来加载和处理高光谱图像数据,并进行取块操作。 假设你的高光谱图像数据集是一个 `.npy` 文件,其中包含了所有的高光谱图像数据。首先,你需要自定义一个 `HyperspectralDataset` 类,继承自 `torch.utils.data.Dataset` 类,用于加载和处理数据集。在这个类中,你可以实现 `__getitem__` 方法来获取每个样本的数据和标签,并将其转换为张量。具体实现可以参考下面的代码: ```python import torch from torch.utils.data import Dataset class HyperspectralDataset(Dataset): def __init__(self, data_path, label_path, block_size): self.data = torch.from_numpy(np.load(data_path)).float() self.labels = torch.from_numpy(np.load(label_path)).long() self.block_size = block_size def __getitem__(self, index): x = self.data[index] y = self.labels[index] # randomly sample a block from the hyperspectral image x_block = self.random_crop(x, self.block_size) return x_block, y def __len__(self): return len(self.data) def random_crop(self, x, block_size): _, h, w = x.size() dh, dw = block_size, block_size h1 = np.random.randint(0, h - dh + 1) w1 = np.random.randint(0, w - dw + 1) return x[:, h1:h1+dh, w1:w1+dw] ``` 在上述代码中,`data_path` 和 `label_path` 分别为高光谱图像数据和标签的 `.npy` 文件路径,`block_size` 为取块的大小。在 `__getitem__` 方法中,我们随机采样一个块,并将其返回。 接下来,你可以使用 `torch.utils.data.DataLoader` 类来创建一个数据加载器,用于批量加载数据集。例如: ```python from torch.utils.data import DataLoader hyperspectral_dataset = HyperspectralDataset(data_path, label_path, block_size) hyperspectral_dataloader = DataLoader(dataset=hyperspectral_dataset, batch_size=batch_size, shuffle=True) ``` 其中,`batch_size` 是每个批次的大小,`shuffle=True` 表示每个批次的样本顺序是随机的。 最后,你可以使用 `for` 循环遍历数据加载器,并逐个获取每个批次的数据和标签。例如: ```python for x_batch, y_batch in hyperspectral_dataloader: # do something with x_batch and y_batch ``` 在上述代码中,`x_batch` 的维度为 `(batch_size, num_channels, block_size, block_size)`,`y_batch` 的维度为 `(batch_size,)`。你可以对 `x_batch` 进行进一步处理,例如将其送入模型进行训练或推断。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值