【计算机视觉 | 图像分类】图像分类常用数据集及其介绍(十三)

一、ImageNet-Patch

ImageNet-Patch:用于针对对抗性补丁进行机器学习鲁棒性基准测试的数据集

对抗性补丁是输入图像中优化的连续像素块,导致机器学习模型对其进行错误分类。 然而,它们的优化对计算要求很高,并且需要仔细的超参数调整,可能导致鲁棒性评估不理想。 为了克服这些问题,我们提出了 ImageNet-Patch,这是一个用于针对对抗性补丁对机器学习模型进行基准测试的数据集。 它由一组补丁组成,经过优化以泛化不同的模型,并且在使用仿射变换对 ImageNet 数据进行预处理后可以轻松应用于 ImageNet 数据。 该过程利用对抗性扰动的可转移性,实现近似但更快的鲁棒性评估。

在这里插入图片描述

二、Kvasir-Capsule在这里插入图片描述

Kvasir-Capsule 数据集是最大的公开发布的 VCE 数据集。 该数据集总共包含 47,238 张标记图像和 117 个视频,其中捕获了解剖标志以及病理和正常发现。 结果总共超过 4,741,621 个图像和视频帧。

三、MAMe (Museum Art Medium dataset)

MAMe 数据集包含来自 3 个不同博物馆的高分辨率和可变形状的艺术品图像:

纽约大都会艺术博物馆
洛杉矶县艺术博物馆
克利夫兰艺术博物馆

在这里插入图片描述

四、MIMIC-CXR-LT (long-tailed version of MIMIC-CXR)

MIMIC-CXR-LT。 我们以类似的方式构建了 MIMIC-CXR 的单标签、长尾版本。 MIMIC-CXR 是一个多标签分类数据集,包含超过 200,000 张胸部 X 光片,标记有 13 种病理和“无发现”类别。 生成的 MIMIC-CXR-LT 数据集包含 19 个类,其中 10 个头类,6 个中类,3 个尾类。 MIMIC-CXR-LT 包含 111,792 张标记有 18 种疾病之一的图像,其中包括 87,493 张训练图像和 23,550 张测试集图像。 验证和平衡测试集每个类分别包含 15 个和 30 个图像。

五、NIH-CXR-LT (Long-tailed (LT) NIH ChestXRay14)

NIH-CXR-LT。 NIH ChestXRay14 包含超过 100,000 张胸部 X 光片,标有 14 种病理,外加“无发现”类别。 我们通过引入上述五种新的疾病发现,构建了 NIH ChestXRay14 数据集的单标签、长尾版本。 生成的 NIH-CXR-LT 数据集有 20 个类,其中包括 7 个头类、10 个中类和 3 个尾类。 NIH-CXR-LT 包含 88,637 张标记有 19 种胸部疾病之一的图像,其中 68,058 张训练图像和 20,279 张测试图像。 验证和平衡测试集每个类分别包含 15 个和 30 个图像。

六、OFDIW (OnFocus Detection In the Wild)

OnFocus Inspection In the Wild (OFDIW) 是一个焦点检测数据集。 它由不受约束的捕获条件(因此称为“野外”)的 20,623 张图像组成,包含具有不同情感、年龄、面部特征以及与周围物体和背景场景的丰富交互的个体。这些图像是从 LFW 数据集收集的, Oxford-IIIT Pet 数据集。焦点检测旨在识别相机捕捉到的个体的焦点是否在相机上。

在这里插入图片描述

七、PMData

PMData 数据集旨在将传统的生活记录与体育活动记录相结合。

在这里插入图片描述

八、PolSF

收集五幅开放极化 SAR 图像,这些图像是旧金山地区的图像。 这五幅图像来自不同卫星、不同时间,具有很大的科研价值。

九、RF100 (Roboflow 100)

对象检测模型的评估通常通过优化单个指标来执行,例如 mAP,在一组固定的数据集上,例如 微软 COCO 和 Pascal VOC。 由于图像检索和注释成本,这些数据集主要由在网络上找到的图像组成,并不代表在实践中建模的许多现实生活领域,例如 卫星、微观和游戏,使得很难断言模型所学到的泛化程度。

我们推出了 Roboflow-100 (RF100),其中包含 100 个数据集、7 个图像域、224,714 张图像和 805 个类别标签,标记时间超过 11,170 小时。 我们从超过 90,000 个公共数据集、6000 万张公共图像中得出 RF100,这些图像由计算机视觉从业者在开放的网络应用程序 Roboflow Universe 中积极组装和标记。 通过发布 RF100,我们的目标是提供语义多样化、多领域的数据集基准,以帮助研究人员使用现实生活数据测试其模型的普遍性。 RF100 下载和基准测试复制可在 GitHub 上获取。

在这里插入图片描述

十、Vistas-NP

Vistas-NP数据集是基于Mapillary Vistas数据集的分布外检测数据集。 原始 Vistas 数据集包含 18,000 张训练图像和 2,000 张验证图像,共 66 个类别。 在 Vistas-NP 中,由于人类类别在场景中的分散性以及与其他对象的视觉多样性,人类类别被用作异常值。 通过将具有类别 person 和三个骑手类别的所有图像排除到测试子集来创建数据集。 因此,数据集有 8,003 个训练图像和 830 个验证图像。 测试集包含 11,167 个。

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
以下是一个简单的计算机视觉图像分类代码,使用了PyTorch框架和CIFAR-10数据集: ```python import torch import torchvision import torchvision.transforms as transforms # 加载数据集 transform = transforms.Compose( [transforms.ToTensor(), transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))]) trainset = torchvision.datasets.CIFAR10(root='./data', train=True, download=True, transform=transform) trainloader = torch.utils.data.DataLoader(trainset, batch_size=4, shuffle=True, num_workers=2) testset = torchvision.datasets.CIFAR10(root='./data', train=False, download=True, transform=transform) testloader = torch.utils.data.DataLoader(testset, batch_size=4, shuffle=False, num_workers=2) classes = ('plane', 'car', 'bird', 'cat', 'deer', 'dog', 'frog', 'horse', 'ship', 'truck') # 定义神经网络 import torch.nn as nn import torch.nn.functional as F class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(3, 6, 5) self.pool = nn.MaxPool2d(2, 2) self.conv2 = nn.Conv2d(6, 16, 5) self.fc1 = nn.Linear(16 * 5 * 5, 120) self.fc2 = nn.Linear(120, 84) self.fc3 = nn.Linear(84, 10) def forward(self, x): x = self.pool(F.relu(self.conv1(x))) x = self.pool(F.relu(self.conv2(x))) x = x.view(-1, 16 * 5 * 5) x = F.relu(self.fc1(x)) x = F.relu(self.fc2(x)) x = self.fc3(x) return x net = Net() # 定义损失函数和优化器 import torch.optim as optim criterion = nn.CrossEntropyLoss() optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9) # 训练网络 for epoch in range(2): # 多次循环遍历数据集 running_loss = 0.0 for i, data in enumerate(trainloader, 0): # 获取输入 inputs, labels = data # 梯度清零 optimizer.zero_grad() # 正向传播,反向传播,优化 outputs = net(inputs) loss = criterion(outputs, labels) loss.backward() optimizer.step() # 打印统计信息 running_loss += loss.item() if i % 2000 == 1999: # 每2000个小批量数据打印一次 print('[%d, %5d] loss: %.3f' % (epoch + 1, i + 1, running_loss / 2000)) running_loss = 0.0 print('Finished Training') # 测试网络 correct = 0 total = 0 with torch.no_grad(): for data in testloader: images, labels = data outputs = net(images) _, predicted = torch.max(outputs.data, 1) total += labels.size(0) correct += (predicted == labels).sum().item() print('Accuracy of the network on the 10000 test images: %d %%' % ( 100 * correct / total)) # 输出每个类别的准确率 class_correct = list(0. for i in range(10)) class_total = list(0. for i in range(10)) with torch.no_grad(): for data in testloader: images, labels = data outputs = net(images) _, predicted = torch.max(outputs, 1) c = (predicted == labels).squeeze() for i in range(4): label = labels[i] class_correct[label] += c[i].item() class_total[label] += 1 for i in range(10): print('Accuracy of %5s : %2d %%' % ( classes[i], 100 * class_correct[i] / class_total[i])) ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

旅途中的宽~

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值