计算机视觉实践(街景字符编码识别)——Task02:数据读取与数据扩增

原教程:计算机视觉实践(街景字符编码识别) datawhalechina/team-learning · GitHub

一、数据读取

由于赛题数据是图像数据,赛题的任务是识别图像中的字符。因此我们首先需要完成对数据的读取操作,在Python中有很多库可以完成数据读取的操作,比较常见的有Pillow和OpenCV。

1.Pillow

Pillow是Python图像处理函式库PIL的一个分支。

Pillow提供了常见的图像读取和处理的操作,而且可以与ipython notebook无缝集成,是应用比较广泛的库。

官方文档:Pillow — Pillow (PIL Fork) 7.1.2 documentation

下面介绍关于pillow的一些基本操作,先给出原图像
在这里插入图片描述

  • 读取图像
# 导入Pillow库
from PIL import Image

# 读取图片
im = Image.open('cat.jpg')
  • 图像的过滤和增强

PIL库的ImageFilter类提供了过滤图像的方法,共10种方法如下:

方法表示描述
ImageFiter.BLUR图像的模糊效果
ImageFilter.CONTOUR图像的轮廓效果
ImageFilter.DETAIL图像的细节效果
ImageFilter.EDGE ENHANCE图像的边界加强效果
ImageFilter.EDGE ENHANCE MORE图像的阈值边界加强效果
ImageFilter.EMBOSS图像的浮雕效果
ImageFilter.FIND EDGES图像的边界效果
ImageFilter.SMOOTH图像的平滑效果
ImageFilter.SMOOTH MORE图像的阈值平滑效果
ImageFilter. SHARPEN图像的锐化效果
# 导入模糊库
from PIL import ImageFilter

# 应用模糊滤镜:
im1 = im.filter(ImageFilter.BLUR)
im1.save('blur.jpg', 'jpeg')

结果:
在这里插入图片描述
PIL库的ImageEnhance类提供了更高级的图像增强需求,它提供了调整色彩度、亮度、对比度、锐化等功能。方法如下:

方法表示描述
ImageEnhance. enhance(factor)对选择属性的数值增强factor倍
ImageEnhance.Color(im)调整图像的颜色平衡
ImageEnhance.Contrast(im)调整图像的对比度
ImageEnhance .Brightness(im)调整图像的亮度
ImageEnhance.Sharpness(im)调整图像的锐度
# 导入增强库
from PIL import ImageEnhance

# 增强1.8倍对比度
im11 = ImageEnhance.Contrast(im).enhance(1.8)
im11.save('enhanceContrast.jpg', 'jpeg')

结果:
在这里插入图片描述

  • 图像缩放
    pillow中有两种方法可以对图片大小进行处理:resize()方法thumbnail()方法
    区别如下:
    1.resize()方法可以缩小也可以放大,而thumbnail()方法只能缩小;
    2.resize()方法不会改变对象的大小,只会返回一个新的Image对象,而thumbnail()方法会直接改变对象的大小,返回值为none;
    3.resize()方法中的size参数直接规定了修改后的大小,而thumbnail()方法按比例缩小,size参数只规定修改后size的最大值。
    (按比例缩小指长和宽按指定比例缩小,但不会大于给定size参数)
# 提取原图像尺寸(单位:像素)
w,h = im.size
# 缩图(长和宽都缩小到原来的1/2)
# thumbnail
im2 = Image.open('cat.jpg')
im2.thumbnail((w//2, h//2))
im2.save('thumbnail.jpg', 'jpeg')
# resize
im22 = im.resize((w//2, h//2))
im22.save('resize.jpg', 'jpeg')

结果:
thumbnail
在这里插入图片描述
resize
在这里插入图片描述

  • 旋转(此次用不着)在这里插入图片描述
# (逆时针)旋转90度
im3 = im.rotate(90)
im3.save('rotate.jpg', 'jpeg')

2.OpenCV

OpenCV是一个跨平台的计算机视觉库,最早由Intel开源得来。OpenCV发展的非常早,拥有众多的计算机视觉、数字图像处理和机器视觉等功能。OpenCV在功能上比Pillow更加强大很多,学习成本也高很多。
部分官方文档:
OpenCV 官网
OpenCV Github
OpenCV 扩展算法库
以下只介绍部分与pillow不同的功能,关于opencv的模糊等操作可参考我之前写过的论文:
可视化_nanashi_F的博客-CSDN博客

  • 读取图像
# 导入Opencv库
import cv2

img = cv2.imread('cat.jpg')
  • 转换为灰度图
# Opencv默认颜色通道顺序是BRG,转换为灰度图像
img1 = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
cv2.imwrite('gray.jpg',img1)

结果:
在这里插入图片描述

  • Canny边缘检测
# Canny边缘检测
edges = cv2.Canny(img1, 30, 70)
cv2.imwrite('canny.jpg', edges)

结果(人眼看有点吓人,不过更利于机器识别处理 ):
在这里插入图片描述

二、数据扩增方法

1.数据扩增介绍

在深度学习中数据扩增方法非常重要,数据扩增可以增加训练集的样本,同时也可以有效缓解模型过拟合的情况,也可以给模型带来的更强的泛化能力。

在深度学习模型的训练过程中,数据扩增是必不可少的环节。原因有二:

  1. 现有深度学习的参数非常多,样本的数量难以达到,必须扩增数据;
  2. 是数据扩增可以扩展样本多样性,使深度学习模型得出更全面的识别结果。

数据扩增方法有很多:
颜色空间尺度空间样本空间,同时根据不同任务数据扩增都有相应的区别。

对于图像分类,数据扩增一般不会改变标签;
对于物体检测,数据扩增会改变物体坐标位置;
对于图像分割,数据扩增会改变像素标签。

2.常见的数据扩增方法

在常见的数据扩增方法中,一般会从图像颜色、尺寸、形态、空间和像素等角度进行变换。当然不同的数据扩增方法可以自由进行组合,得到更加丰富的数据扩增方法。

以torchvision为例,常见的数据扩增方法包括:

方法描述
transforms.CenterCrop对图片中心进行裁剪
transforms.ColorJitter对图像颜色的对比度、饱和度和零度进行变换
transforms.FiveCrop对图像四个角和中心进行裁剪得到五分图像
transforms.Grayscale对图像进行灰度变换
transforms.Pad使用固定值进行像素填充
transforms.RandomAffine随机仿射变换
transforms.RandomCrop随机区域裁剪
transforms.RandomHorizontalFlip随机水平翻转
transforms.RandomRotation随机旋转
transforms.RandomVerticalFlip随机垂直翻转

在本次赛题中,赛题任务是需要对图像中的字符进行识别,因此对于字符图片并不能进行翻转操作。比如字符6经过水平翻转就变成了字符9,会改变字符原本的含义。

3.常用的数据扩增库

  1. torchvision
    pytorch官方提供的数据扩增库,提供了基本的数据数据扩增方法,可以无缝与torch进行集成;但数据扩增方法种类较少,且速度中等

  2. imgaug
    imgaug是常用的第三方数据扩增库,提供了多样的数据扩增方法,且组合起来非常方便,速度较快

  3. albumentations
    是常用的第三方数据扩增库,提供了多样的数据扩增方法,对图像分类、语义分割、物体检测和关键点检测都支持,速度较快

三、具体代码

由于本次赛题我们使用Pytorch框架讲解具体的解决方案,接下来将是解决赛题的第一步使用Pytorch读取赛题数据。
在Pytorch中数据是通过Dataset进行封装,并通过DataLoder进行并行读取。所以我们只需要重载一下数据读取的逻辑就可以完成数据的读取。

  • 导入所需库
import os, sys, glob, shutil, json
import cv2

from PIL import Image
import numpy as np

import torch
from torch.utils.data.dataset import Dataset
import torchvision.transforms as transforms
  • 定义读取数据集
class SVHNDataset(Dataset):
    def __init__(self, img_path, img_label, transform = None):
        """
        初始化类,提取文件路径、标签及是否进行数据扩增作为该对象的基本参数
        """
        self.img_path = img_path
        self.img_label = img_label 
        if transform is not None:
            self.transform = transform
        else:
            self.transform = None

    def __getitem__(self, index):
        """
        定义索引
        """
        img = Image.open(self.img_path[index]).convert('RGB')

        if self.transform is not None:
            img = self.transform(img)
        
        # 类别10为数字0
        lbl = np.array(self.img_label[index], dtype=np.int)
        lbl = list(lbl)  + (5 - len(lbl)) * [10]
        return img, torch.from_numpy(np.array(lbl[:5]))

    def __len__(self):
        """
        定义长度
        """
        return len(self.img_path)
  • 读取数据同时进行数据扩增
train_path = glob.glob('../input/train/*.png')
train_path.sort()
train_json = json.load(open('../input/train.json'))
train_label = [train_json[x]['label'] for x in train_json]

data = SVHNDataset(train_path, train_label,
          transforms.Compose([
              # 缩放到固定尺寸
              transforms.Resize((64, 128)),

              # 随机颜色变换
              transforms.ColorJitter(0.2, 0.2, 0.2),

              # 加入随机旋转
              transforms.RandomRotation(5),

              # 将图片转换为pytorch 的tesntor
              # transforms.ToTensor(),

              # 对图像像素进行归一化
              # transforms.Normalize([0.485,0.456,0.406],[0.229,0.224,0.225])
            ]))

结果示例:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 在定义好的Dataset基础上构建DataLoder,实现批量读取的迭代读取
    区别:Dataset对数据集的封装,提供索引方式的对数据样本进行读取;DataLoder对Dataset进行封装,提供批量读取的迭代读取
train_loader = torch.utils.data.DataLoader(
        SVHNDataset(train_path, train_label,
                   transforms.Compose([
                       transforms.Resize((64, 128)),
                       transforms.ColorJitter(0.3, 0.3, 0.2),
                       transforms.RandomRotation(5),
                       transforms.ToTensor(),
                       transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
            ])), 
    batch_size=10, # 每批样本个数
    shuffle=False, # 是否打乱顺序
    num_workers=10, # 读取的线程个数
)

for data in train_loader:
    break

在加入DataLoder后,数据按照批次获取,每批次调用Dataset读取单个样本进行拼接。此时data的格式为:
torch.Size([10, 3, 64, 128]), torch.Size([10, 6])
前者为图像文件,为batchsize * chanel * height * width次序;后者为字符标签。

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
天池是一个著名的数据科学竞赛平台,而datawhale是一家致力于数据科学教育和社群建设的组织。街景字符编码识别是指通过计算机视觉技术,对街道场景中的字符进行自动识别和分类。 街景字符编码识别是一项重要的研究领域,对于提高交通安全、城市管理和智能驾驶技术都具有重要意义。街道场景中的字符包括道路标志、车牌号码、店铺招牌等。通过对这些字符进行准确的识别,可以辅助交通管理人员进行交通监管、道路规划和交通流量分析。同时,在智能驾驶领域,街景字符编码识别也是一项关键技术,可以帮助自动驾驶系统准确地识别和理解道路上的各种标志和标识,为自动驾驶提供可靠的环境感知能力。 天池和datawhale联合举办街景字符编码识别竞赛,旨在吸引全球数据科学和计算机视觉领域的优秀人才,集思广益,共同推动该领域的研究和发展。通过这个竞赛,参赛选手可以使用各种机器学习和深度学习算法,基于提供的街景字符数据集,设计和训练模型,实现准确的字符编码识别。这个竞赛不仅有助于促进算法研发和技术创新,也为各参赛选手提供了一个学习、交流和展示自己技能的平台。 总之,天池datawhale街景字符编码识别是一个具有挑战性和实际应用需求的竞赛项目,旨在推动计算机视觉和智能交通领域的技术发展,同时也为数据科学爱好者提供了一个学习和展示自己能力的机会。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值