在从dataloader中获取训练数据的时候(获取每个epoch的时候)pytorch会把下面Compose里面的transform都做一遍,但是由于里面有的操作有random属性(下面例子中只有RandomHorizontlFlip有随机属性,有的epoch做有的epoch不做),所以每个epoch对图片的处理方式都不尽相同,所以到达了数据增强的目的。然而每个epoch的的图片数量是不变化的。
data_transform={'train':transforms.Compose([ transforms.RandomHorizontalFlip(), transforms.Resize(image_size), transforms.CenterCrop(image_size), transforms.ToTensor(), transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225]) ]),
如果你是CenterCrop操作因为这是一个确定的操作,就是每个图片在输进模型的时候都进行中间裁剪,不论多少个epoch还是相当于在训练这100个图片,如果是0.5概率的randomCrop操作,因为这个随机属性的存在每个epoch拿到的训练数据都不尽相同(有的epoch进行了裁剪,有的epoch没有进行裁剪,但是一个epoch的训练数据都是100个),在多个epoch以后相当于你用200张图片在训练,达到了数据增强的目的。
如果是FiveCrop 和TenCrop操作又和上面的两种crop机制不一样,这两个才是是直接增加每个epoch的数据,将每个epoch中数据增加为了500张和1000张。