把鞋子的轮廓图:
还原成鞋子本体:
需要消耗多少计算量?
用最基本的 Pix2Pix 模型,需要消耗 56.8G;
而当 Pix2Pix 模型被一种新技术压缩后,只需要 1.219G,是原来的 1/46.6,大大节省了计算量。
这里用到的技术,就是字节跳动技术团队在计算机视觉顶会 ICCV 2021 上发表的在线多粒度蒸馏算法(Online Multi-Granularity Distillation,简称OMGD)。
这种模型压缩框架,专治 GAN 模型体积过大、太费算力,目前已经开源了代码(地址在文末), 以及 CycleGAN 与 Pix2Pix 的预训练模型,