分离潜变量自动编码器超分辨率网络 SLAESR

分离潜变量自动编码器超分辨率网络
Separating latent automatic encoder super-resolution network.
简称:SLAESR

关于训练部分,请看仓库
github 仓库:https://github.com/One-sixth/SLAESR

这名字听着有点Cool,: )

设计原因和目的:
有一大堆128x128的动漫头像,要把他们的分辨率弄到512x512那里去,又不想使用waifu2x。
经过观察,这些头像信息量不高,我把他们下采样到64x64,看起来仍然很清晰。那么,把他们上采样到高分辨率时,只要让其边缘清晰,和颜色过渡平滑即可。所以使用自编码器。相比wdsr结构,占用显存应该会少很多。因为动漫头像没有复杂的纹理的,估计足够了。并且,自动编码器可以自动丢弃一些不重要的特征。也许可以主动去噪?
受到 VQVAE 的结构启发。
不过后面发现,上采样动漫图像效果也不错。

模型差异:
模型1:使用 Deconv 2x2 作为上采样层,颜色对比度高,但是有微弱伪影,使用conv 1x1 或 conv 3x3 和 PixelShuffle 组合也有微弱伪影,不知为何。
模型2:使用 Conv 3x3 和 Bilinear Upsample 组合作为上采样层,终于没有那坑爹的伪影。但是色彩对比度较差。。
模型3:相比模型2,换成了 Nearest Upsample。然后,好的地方没啥区别,有的地方甚至更差。。。所以不公开了

训练:
dataset: https://github.com/ANIME305/Anime-GAN-tensorflow#open-sourced-dataset
loss: ssim & l1
train_resolution: 64x64 -> 128x128

训练方式是把图像用Area下采样到64x64,再由网络上采样到128x128
数据增强方式,RGB通道乱序,随机亮度。

训练样本

model_1:
64->128
在这里插入图片描述
128->256, 仅测试,不进行训练。在这里插入图片描述

model_2:
64->128
在这里插入图片描述
128->256, 仅测试,不进行训练。
在这里插入图片描述

大图像超分辨率测试

模型1可观察到头发处有颜色断层
模型2则非常平滑

原图:

在这里插入图片描述在这里插入图片描述

模型1:
在这里插入图片描述
在这里插入图片描述
模型2:
在这里插入图片描述在这里插入图片描述

网络结构

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值