【COCO数据集】COCO API 解析图像数据和目标标签,vision-transformer DETR的相关transforms操作实现

 在大多数情况下,我们在为模型创建训练数据集时无需担心注释格式。 COCO API为我们提供了一系列的api函数,方便我们获取任务的图像数据和目标标签。

PaddleViT: COCODataset

COCO数据集有一个名为pycocotools的 python API,供用户轻松加载和使用COCO数据集进行检测、分割和其他cv任务。 以下是基于 pycocotools 实现COCO检测数据集的PaddleViT实现,并用于训练和验证。

CocoDataset Class

CocoDataset 类由 paddle.io.Dataset 类实现, 并需要两个函数 __getitem__ 与 __len__ , 即:

class CocoDetection(paddle.io.Dataset):
    def __init__(self, image_folder, anno_file, transforms, return_mask):
        super().__init__()
        ...
    def __getitem__(self, idx):
        ...
    def __len__(self):
        ...

__init__ method

在类的初始化方法中:

  1. 通过调用pycocotools api加载coco数据集的anno文件。
  2. 获取图像id并删除没有注释的图像。
  3. 通过init参数设置数据转换(预处理器)。
  4. 定义标签转换方法。(详情见下节)。
from pycocotools.coco import COCO
...
class CocoDataset():
    def __init__(self):
        super().__init__()
        # step1
        self.coco = COCO(anno_file)
        # step2
        ids = list(sorted(self.coco.imgs.keys()))
        self.ids = self._remove_images_without_annotations(ids)
        # step3
        self._transforms = transforms
        # step4
        self.prepare = ConvertCocoPolysToMasks(return_masks)
        self.root = img_folder

__getitem__ method

__getitem__方法将索引作为输入,并输出包含单张图像及其目标标签的(image, target) 对。在coco检测中,这个目标是一个类似于以下形式的 dict :

target = {'image_id': image_id, 'annotations': target}

image_id 是在coco注释中相同的图像id.

target 是键值对的字典,例如 bbox 和 mask. (英文版单词拼写错误)

__getitem__ 方法定义:

  1. 使用COCO API加载指定的图像及其标签
  2. 转换标签(如将掩码从多边形转换为掩码数组)
  3. 输入数据的预处理转换
def __getitem__(self, idx):
    image_id = self.ids[idx]
    image = self._load_image(image_id)
    target = self._load_target(image_id)
    target = {'image_id': image_id, 'annotations': target}

    image, target = self.prepare(image, target)
    if self._transform is not None:
        image, target = self._transform(image, target)
    return image, target

__len__ method

返回数据集中的样本数,与ids长度相同:

def __len__(self):
    return len(self.ids)

_load_image_load_target methods

PIL.Image 和 COCO API 用于根据给定索引获取图像数据和原始目标标签.

def _load_image(self, idx):
    """ Return PIL Image (RGB) according to COCO image id"""
    path = self.coco.loadImgs(idx)[0]['file_name']
    return Image.open(os.path.join(self.root, path)).convert('RGB')
  
def _load_target(self, idx):
    """ Return image annos according to COCO image id"""
    return self.coco.loadAnns(self.coco.getAnnIds(idx))

ConvertCocoPolysToMasks Class

该类定义了以图像和标签为输入并输出图像数组和处理后的标签。 

专门对于目标标签的处理:

  1. 去掉iscrowd=1的图像;
  2. [x1, y1, x2, y2]中的包围框转换为numpy数组类型,然后根据包围框裁剪图像;
  3. 将类标签转换为numpy数组;
  4. 如果返回掩码(对于分割任务),使用coco api将多边形数据转换为掩码数组;
  5. 如果返回关键点(用于关键点检测),则将关键点加载到数组中;
  6. 消除面积为0的包围框;
  7. 将处理后的标签保存在target字典中。

Transforms Module

在转换模块(transforms.py)中定义了多种数据压缩方法。 定义我们自己的模块而不是使用paddle视觉转换的原因是,每个数据变换都必须应用于图像数据集其目标标签,例如bbox和掩码。假设在训练期间对图像数据应用类随机裁剪操作,则该图像中的bbox必需应用相同的裁剪。

Validation transforms

DETR 的验证转换具有以下操作:

  • RandomResize(): 将图像和标签调整为具有相同比例的特定大小。
  • ToTensor(): 将图像数据转换为 paddle.Tensor
  • Normalize(): 均值$-mean$和$/std$

Training transforms

DETR的训练转换具有以下操作:

  • RandomHorizontalFlip() 随机水平翻转数据。
  • RandomSelect() 随机选择两个子操作之一: (1) 一个单个 RandomResize 步骤; (2) 一个 三步骤操作: RandomReizeRandomSizeCrop, 以及 RandomResize
  • ToTensor(): 将图像数据转换为 paddle.Tensor
  • Normalize(): 图像数据标准化, $-mean$ 和 $/std$

RandomHorizontalFlip()

此变换需要初始化参数中的概率用来控制是否应用反转的随机性。

class RandomHorizontalFlip():
    def __init__(self, p=0.5):
        self.p = p

    def __call__(self, image, target):
        if random.random() < self.p:
            return hflip(image, target)
        return image, target

hflip 方法定义了图像和目标(包含包围框和盐吗的真实标注值的字典)的水平翻转操作。

RandomSelect()

RandomSelect()有一个prob值控制选择它的两个子操作之一的随机性。

class RandomSelect():
    """ Random select one the transforms to apply with probablity p"""
    def __init__(self, transforms1, transforms2, p=0.5):
        self.transforms1 = transforms1
        self.transforms2 = transforms2
        self.p = p

    def __call__(self, image, target):
        if random.random() > self.p:
            return self.transforms1(image, target)
        return self.transforms2(image, target)

两个转换操作在DETR训练中使用:

  • RandomResize()
  • RandomResize() + RandomSizeCrop() + RandomResize()

RandomResize()

RandomResize有两个参数:sizes 和 max_size. 该方法随机选择sizes中的一个值作为图像短边的目标尺寸,同时保持图像的比例不变。但是,如果图像的长边大于max_size(当使用所选尺寸作为短边时),则将图像的长边设置为max_size,而较短的尺寸需要重新计算以保持图像长宽比例不变。

必须在bbox和掩码使用相同的尺寸调整操作。 通过乘以高度和宽度的比例可以转换包围框。可以通过插值和二值化来转换掩码以获得缩放掩码(如果 values > 0.5则设置为1,否则设置为0)。

RandomSizeCrop()

RandomSizeCrop 将min_sizemax_size 作为输入,然后将裁减图像中的随机区域作为输出。输出区域的尺寸为 [randint(min_size, max_size), randint(min_size, max_size)].

RandomSizeCrop 分为三个步骤实现:

  • STEP1: 给定 min_sizemax_size 和原始图像尺寸,生成随机图像宽度和图像高度。
  • STEP2: 给定裁剪后的图像大小,随机选择图像内裁减区域的位置。这个区域可以用 [top, left, height, width]表示.
  • STEP3: 给定裁剪区域,裁剪图像和目标的标签,例如 包围框和掩码.

具体来说,我们实现了一个crop方法,其输入

(1)在[top, left, height, width]中的裁剪区域,

(2) 原始图像 以及 (3) 目标标签,然后返回裁剪后的图像和裁剪后的标签。

(请注意,在裁剪之后,原始包围框或者掩码也会被裁剪,甚至在裁剪后的图像中看不到,因此,我们必须从目标标签中消除那些无效的框和掩吗。)

ToTensor()

ToTensor 将图像数据从PIL.Image转换为paddle.Tensor, 返回图像张量和相应的标签,通过以下方式可以实现:

import paddle.vision.transforms as T
class ToTensor:
    def __call__(self, image, target):
        return T.to_tensor(image), target

Normalize()

在 Normalize方法中, 除了数据归一化(-mean & /std), 我们还将包围框从 [x0, y0, x1, y1] 归一化为 [cx, cy, w, h], 根据图像尺寸归一化为相对坐标. 实现方式如下:

class Normalize():
    def __init__(self, mean, std):
        self.mean = mean
        self.std = std

    def __call__(self, image, target=None):
        # -mean, / std
        image = T.functional.normalize(image, mean=self.mean, std=self.std)
        if target is None:
            return image, None
        target = target.copy()
        # from xyxy -> cxcywh -> relative coords
        h, w = image.shape[-2:]
        if 'boxes' in target and target['boxes'].shape[0] != 0:
            boxes = target['boxes']
            boxes = box_xyxy_to_cxcywh_numpy(boxes)
            boxes = boxes / np.array([w, h, w, h], dtype='float32')
            target['boxes'] = boxes

        return image, target

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Swin-Transformer是一种新型的图像分类模型,它融合了transformer和局部窗口相互作用的思想,具有更高的计算效率和分类性能。在使用Swin-Transformer模型对自己的数据集进行训练时,一般需要进行以下几个步骤。 首先,需要准备好自己的数据集。这个数据集应包含图像和对应的类别标签。可以通过从网上下载公开数据集或者自己收集构建数据集。 接下来,需要对数据集进行预处理。首先,可以对图像进行尺寸的调整和归一化操作,确保输入的图像具有一致的尺寸和数据范围。其次,可以对标签进行编码,将类别信息转换为模型可以理解的数字形式。 然后,可以使用Swin-Transformer模型对数据集进行训练。在训练过程中,需要将数据集按照一定的比例分为训练集和验证集。训练集用于模型的参数更新,而验证集用于调整模型的超参数,以及评估模型的性能。 在每个训练迭代中,可以将一批图像输入到Swin-Transformer模型中,并计算模型的损失函数。通过反向传播算法,可以更新模型的参数,使得模型能够更好地拟合训练数据。 训练完成后,可以使用训练好的Swin-Transformer模型对新的图像进行分类预测。只需将图像输入到模型中,即可得到图像所属的类别标签。 总之,使用Swin-Transformer模型对自己的数据集进行图像分类需要准备数据集、预处理数据、划分训练集和验证集、进行训练和评估,并最终利用训练好的模型进行预测。这个过程需要仔细调整模型的超参数和进行适当的数据增强操作,以获得更好的分类性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

LeapMay

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值