2019-05-19
从GitHub下载了代码(这里)
代码量虽然不多,但是第一次学,花了时间还是挺多的。根据代码有跑出结果(基本没有改),但是对于数据集的处理还是看的很懵逼,主要是作者的实现都是用类封装,然后调用函数实现,而且每一个代码块没有测试,所以很多代码不知道什么意思,所以,我把能够拆分的进行了拆分,用jupyter重新实现下
一、数据集的理解
在加载成 dataloader 之前应先做预处理
1.对于训练集不是利用RGB训练的,而是使用YCbCr的 Y 通道
2.将训练集图像利用torchvision.transforms 里的 Resize 缩小到 128*128的大小,此时图像会变模糊
(论文中用双三次插值,所以我一直在代码中找这个,没想到用了Resize)
训练图:
Compose( CenterCrop(size=(256, 256)) Resize(size=128, interpolation=PIL.Image.BILINEAR) ToTensor() )
标签:
Compose( CenterCrop(size=(256, 256)) ToTensor() )
3.构建dataloader()
4.前向传播
nn.Conv2d(in_channels=num_channels, out_channels=base_filter, kernel_size=9, stride=1, padding=4, bias=True), nn.ReLU(inplace=True), nn.Conv2d(in_channels=base_filter, out_channels=base_filter // 2, kernel_size=1, bias=True), nn.ReLU(inplace=True), nn.Conv2d(in_channels=base_filter // 2, out_channels=num_channels * (upscale_factor ** 2), kernel_size=5, stride=1, padding=2, bias=True), nn.PixelShuffle(upscale_factor)
5.利用(1,1,256,256)的输出和标签做了loss
6.经过20代迭代
===> Epoch 20 starts: 200/200 [================================================================================>] Step: 151ms | Tot: 29s948ms | Loss: 0.0034 Average Loss: 0.0034 100/100 [================================================================================>] Step: 92ms | Tot: 8s353ms | PSNR: 25.9508 Average PSNR: 25.9508 dB