处理Mini-ImageNet数据集,用于分类任务

一、Mini-ImageNet数据集介绍

ImageNet 1000类的数据太大了,全部下载大概有100GB左右。

2016年google DeepMind团队从ImagNet数据集中抽取的一小部分(大小约3GB)制作了Mini-ImageNet数据集,共有100个类别,每个类别有600张图片,共6w张(都是.jpg结尾的文件),而且图像的大小并不是固定的,作为小样本学习(Few-shot Learning)常用数据集。

训练,验证,测试数据集中的类别不交叉重复。基础集(Base Class,64个类别),验证集(Validation Class,16个类别)和新类别集(Novel Class,20个类别)。

1、数据集结构

├── mini-imagenet: 数据集根目录
     ├── images: 所有的图片都存在这个文件夹中
     ├── train.csv: 对应训练集的标签文件
     ├── val.csv: 对应验证集的标签文件
     └── test.csv: 对应测试集的标签文件

2、数据集下载

百度网盘链接

下载地址:https://pan.baidu.com/s/1bQTtrkEgWfs_iaVRwxPF3Q

提取码:33e7

标签对应类别名json文件下载

imagenet_class_index.json文件是每个类别对应的实际物体名称,这个文件是ImageNet1000类数据集中对应的标签文件。
imagenet_class_index.json文件部分内容如下,n01440764标签对应类别为tench。

{"0": ["n01440764", "tench"], 
 "1": ["n01443537", "goldfish"], 
 "2": ["n01484850", "great_white_shark"],
 ...
}

ImageNet数据集风格——WordNet层次结构

ImageNet是是目前深度学习图像领域应用得非常多的,根据WordNet层次结构组织的图像数据集,由李飞飞团队创建,目前常用的是2012年版本的。
官网链接下载需要教育邮箱登录。

WordNet层次结构,文件夹名为类别名,文件夹下是该类别的所有图片,如下所示,实际更加复杂,可嵌套很多层。

ImageNet  
│  
├── Dog   
│   ├── img_dog_0001.jpg  
│   ├── img_dog_0002.jpg  
│   ├── ...  
├── Cat   
│   ├── img_cat_0001.jpg  
│   ├── img_cat_0002.jpg  
│   ├── ...  
└── ... 

二、python处理数据集为分类数据集

1、文件目录结构

├── data
│    ├── images
│    ├── train.csv
│    ├── val.csv
│    ├── test.csv
│    └── imagenet_class_index.json
│
├── classification_process.py
└── dataset_process.py  

2、classification_process.py

划分出新的CSV文件和json文件:new_train.csv 、new_val.csv、classes_name.json。

import os
import json
import pandas as pd
from PIL import Image
import matplotlib.pyplot as plt


def read_csv_classes(csv_dir: str, csv_name: str):
    data = pd.read_csv(os.path.join(csv_dir, csv_name))
    label_set = set(data["label"].drop_duplicates().values)

    print("{} have {} images and {} classes.".format(csv_name,
                                                     data.shape[0],
                                                     len(label_set)))
    return data, label_set


def calculate_split_info(path: str, label_dict: dict, rate: float = 0.2):
    # read all images
    image_dir = os.path.join(path, "images")
    images_list = [i for i in os.listdir(image_dir) if i.endswith(".jpg")]
    print("find {} images in dataset.".format(len(images_list)))

    train_data, train_label = read_csv_classes(path, "train.csv")
    val_data, val_label = read_csv_classes(path, "val.csv")
    test_data, test_label = read_csv_classes(path, "test.csv")

    # Union operation
    labels = (train_label | val_label | test_label)
    labels = list(labels)
    labels.sort()
    print("all classes: {}".format(len(labels)))

    # create classes_name.json
    classes_label = dict([(label, [index, label_dict[label]]) for index, label in enumerate(labels)])
    json_str = json.dumps(classes_label, indent=4)
    with open('data/classes_name.json', 'w') as json_file:
        json_file.write(json_str)

    # concat csv data
    data = pd.concat([train_data, val_data, test_data], axis=0)
    print("total data shape: {}".format(data.shape))

    # split data on every classes
    num_every_classes = []
    split_train_data = []
    split_val_data = []
    for label in labels:
        class_data = data[data["label"] == label]
        num_every_classes.append(class_data.shape[0])

        # shuffle
        shuffle_data = class_data.sample(frac=1, random_state=1)
        num_train_sample = int(class_data.shape[0] * (1 - rate))
        split_train_data.append(shuffle_data[:num_train_sample])
        split_val_data.append(shuffle_data[num_train_sample:])

        # imshow
        imshow_flag = False
        if imshow_flag:
            img_name, img_label = shuffle_data.iloc[0].values
            img = Image.open(os.path.join(image_dir, img_name))
            plt.imshow(img)
            plt.title("class: " + classes_label[img_label][1])
            plt.show()

    # plot classes distribution
    plot_flag = False
    if plot_flag:
        plt.bar(range(1, 101), num_every_classes, align='center')
        plt.show()

    # concatenate data
    new_train_data = pd.concat(split_train_data, axis=0)
    new_val_data = pd.concat(split_val_data, axis=0)

    # save new csv data
    new_train_data.to_csv(os.path.join(path, "new_train.csv"))
    new_val_data.to_csv(os.path.join(path, "new_val.csv"))


def main():
    data_dir = "data/"  # 指向数据集的根目录
    json_path = "data/imagenet_class_index.json"  # 指向imagenet的索引标签文件

    # load imagenet labels
    label_dict = json.load(open(json_path, "r"))
    label_dict = dict([(v[0], v[1]) for k, v in label_dict.items()])

    calculate_split_info(data_dir, label_dict)


if __name__ == '__main__':
    main()

3、dataset_process.py

利用划分出的新文件将图片按照ImageNet风格进行划分。

import csv
import os
from PIL import Image
import json


train_csv_path = "data/new_train.csv"
val_csv_path = "data/new_val.csv"

json_path = "data/classes_name.json"
label_dict = json.load(open(json_path, "r"))

train_label = {}
val_label = {}

with open(train_csv_path) as csvfile:
    csv_reader = csv.reader(csvfile)
    birth_header = next(csv_reader)
    for row in csv_reader:
        train_label[row[1]] = label_dict[row[2]][1]

with open(val_csv_path) as csvfile:
    csv_reader = csv.reader(csvfile)
    birth_header = next(csv_reader)
    for row in csv_reader:
        val_label[row[1]] = label_dict[row[2]][1]

img_path = "data/images"
new_img_path = "data/mini-imagenet"
for png in os.listdir(img_path):
    path = img_path + '/' + png
    im = Image.open(path)
    if (png in train_label.keys()):
        tmp = train_label[png]
        temp_path = new_img_path + '/train' + '/' + tmp
        if (os.path.exists(temp_path) == False):
            os.makedirs(temp_path)
        t = temp_path + '/' + png
        im.save(t)

    elif (png in val_label.keys()):
        tmp = val_label[png]
        temp_path = new_img_path + '/val' + '/' + tmp
        if (os.path.exists(temp_path) == False):
            os.makedirs(temp_path)
        t = temp_path + '/' + png
        im.save(t)

4、最终目录结构

├── data
│    ├── images
│    ├── mini-imagenet
│    │     ├── train: 新生成的训练集,100个类别,4.8w张图片
│    │     └── val: 新生成的测试集,100个类别,1.2w张图片
│    │
│    ├── class_name.json
│    ├── new_train.csv
│    ├── new_val.csv
│    ├── imagenet_class_index.json
│    ├── test.csv
│    ├── train.csv
│    └── val.csv
│
├── classification_process.py
└── dataset_process.py  

5、最终用于分类的数据集

生成的mini-imagenet数据集,包含两个子文件夹train训练集,val测试集(按照8:2随机划分)。
在这里插入图片描述

训练集下有100个子文件夹,代表100个类别,一共4.8w张图片。
在这里插入图片描述

测试集包括100个子文件夹,代表100个类别,一共1.2w张图片。
在这里插入图片描述

  • 12
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Mini-ImageNet数据集是一个用于图像分类任务的小型数据集,由600个类别、每个类别有5张训练图像和15张测试图像组成。这些图像都是从ImageNet数据集中随机选择的,并且它们的大小为84x84像素。Mini-ImageNet数据集被广泛用于模型预训练和元学习领域的研究,因为它具有较小的规模和高度挑战性的分类任务。 ### 回答2: mini-ImageNet数据集是一种用于元学习的小型图像分类数据集。这个数据集任务是,在任意给定的类别集合上,快速学习准确分类新的图像。 mini-ImageNet数据集包含60,000张RGB图像,这些图像都是从大的ImageNet数据库中随机选择的,共有100个类别,每个类别有600张图片。它被广泛用于元学习算法的评估和比较,并且也是机器学习算法中经典的小数据集之一。 正如其名称所示,mini-ImageNet数据集ImageNet数据集的一个小子集。它的大小只有ImageNet数据集的0.1%,因此,它的图像数量较少,并且每个类别的样本数量也较少。这使得数据集的学习过程更具挑战性,因为需要快速学习新的类别,并且需要克服小样本问题。 mini-ImageNet数据集任务是通过在大量的训练类别上进行训练,使模型能够快速适应新类别,学习较少的样本并进行准确分类。在此任务上,模型被要求对来自未见过的100个类别的样本进行分类,并且在仅使用少部分样本时,能够达到最佳的分类性能。 总的来说,mini-ImageNet是一种广泛使用的数据集,它为元学习和小样本学习算法提供了一个评估和比较的标准,并且是许多研究中经常使用的基准测试集之一。 ### 回答3: Mini-Imagenet数据集是一个常用的小规模图像分类数据集,它主要用于测试和评估少样本学习(Few-Shot Learning)算法的性能。该数据集的设计灵感来自于大规模图像分类数据集ImageNet,但Mini-Imagenet数据集规模更小,仅包含60,000张32x32的彩色图像,共分为100个类别。每个类别包含600张图像,其中500张为训练集,100张为测试集。 Mini-Imagenet数据集中的图像类别涵盖了各种物体、动物和植物等不同类别,具有较高的多样性和复杂性,可以很好地测试算法面对复杂场景和复杂类别时的表现。 Mini-Imagenet数据集主要应用在Few-Shot Learning领域,该算法旨在通过训练少量的数据样本,使算法能够在测试集上正确分类。该领域是近年来深度学习研究中的热门方向,受到了广泛的关注。通过将Mini-Imagenet数据集作为基准数据集,可以很好地评估不同的Few-Shot Learning算法的性能,并促进该领域的研究进展。 总之,Mini-Imagenet数据集是一个小规模的图像分类数据集,包含100个类别的图像,主要用于测试和评估Few-Shot Learning算法的性能。该数据集的应用可以促进Few-Shot Learning领域的研究,并在实际应用场景中有一定的参考价值。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值