整个网络结构只有三层,比较简单,卷积核大小分别为9、1、 5
网络输入image为33*33, 网络的输出为21*21
最原始的训练数据只有91张图片(bmp),每张图片的大小尺寸各不相同,通过分割,转换成33*33和21*21的sub_images各有28800多张,形成了训练数据集。33*33为网络输入,21*21为期望输出(即为标签)
问题一、
将原始图片经过插值放大再缩小,虽然得到的数据大小没有变化,通过这种方法得到的数据作为LR的images(即LR_input),将原始图片作为HR的images(即HR_output),其实最终网络所拟合的不过是这种放大再缩小的过程,这样的做法来构造数据集似乎存在很大的局限性,是否有更好的方法。
问题二、
输出为何是21*21
(已解决,33-(9-1)-(1-1)-(5-1)=21)
问题三、(已解决)
各版本的代码在构造网络训练的输入(33*33)和标签(21*21)时,发现这两块图片并不是原始图的同一个区域,这样的数据对作为输入和标签好像没有什么太大的意义,这一块不只是理解的偏差还是应该就是这样的
sub_input = input_[x:x+config.image_size, y:y+