专栏目录:
-
PyTorch简介
-
PyTorch环境搭建
-
PyTorch自动微分
-
PyTorch神经网络
第三章:PyTorch之入门强化
第四章:PyTorch之图像篇
-
微调基于torchvision 0.3的目标检测模型
-
微调TorchVision模型
-
空间变换器网络
-
使用PyTorch进行神经传递
-
生成对抗示例
-
使用ONNX将模型转移至Caffe2和移动端
第五章:PyTorch之文本篇
-
聊天机器人教程
-
使用字符级RNN生成名字
-
使用字符级RNN进行名字分类
-
在深度学习和NLP中使用Pytorch
-
使用Sequence2Sequence网络和注意力进行翻译
第六章:PyTorch之生成对抗网络
第七章:PyTorch之强化学习
在这篇文章中,我们将微调在 Penn-Fudan 数据库中对行人检测和分割的已预先训练的 Mask R-CNN 模型。它包含170个图像和345个行人实例,我们 将用它来说明如何在 torchvision 中使用新功能,以便在自定义数据集上训练实例分割模型。
1.定义数据集
对于训练对象检测的引用脚本,实例分割和人员关键点检测要求能够轻松支持添加新的自定义数据。数据集应该从标准的类torch.utils.data.Dataset
继承而来,并实现_len
和_getitem_
我们要求的唯一特性是数据集的__getitem__
应该返回:* 图像:PIL图像大小(H,W) * 目标:包含以下字段的字典
<1> boxes(FloatTensor[N,4])
:N边框(bounding boxes)坐标的格式[x0,x1,y0,y1],取值范围是0到W,0到H。
<2> labels(Int64Tensor[N])
:每个边框的标签。
<3> image_id(Int64Tensor[1])
:图像识别器,它应该在数据集中的所有图像中是唯一的,并在评估期间使用。
<