最近在arxiv上逛逛,看到一篇关于colorization的paper觉得挺有意思的:
Let there be Color!: Joint End-to-end Learning of Global and Local Image Priors for Automatic Image Colorization with Simultaneous Classification - sig - 2016
作者开源了代码:
https://github.com/satoshiiizuka/siggraph2016_colorization
===
先看看效果,从Fig1可以看出,该论文能够很好地从gray image还原到color image,效果不错。
motivation:
对于纹理区域,如天空,草地,树叶,街道,墙,海面等这些,
如何利用全局和局部的信息,使得网络可以充分学习到并区分到?
如何利用context的信息来区分不同场景下的图像,如indoor,outdoor?
所有该paper的核心研究内容是:如何充分利用global,local,semantic context信息,来更好地训练网络模型:
1 user-intervention-free的方式,即不需要用户的干涉,例如graphcut需要用户的操作,而它是不需要的;
2 end-to-end的网络,能够同时学习到图像的global和local的features;