1、tensorflow版本
https://www.e-learn.cn/index.php/content/wangluowenzhang/249870
2、pytorch版本(SSIM、MSSSIM)
https://github.com/jorge-pessoa/pytorch-msssim/tree/master
3、contextual loss(作用同SSIM)
https://www.cnblogs.com/jingyingH/p/9831027.html
https://github.com/roimehrez/contextualLoss
4、和SSIM loss思想相近的还有perceptual loss;
5、利用SSIM loss的论文
https://www.jianshu.com/p/a4db43de4fb2
https://www.jianshu.com/p/0fc4c696e409-----ACGAN
6、对比损失
https://blog.csdn.net/Hero_Never_GIVE_UP/article/details/82855493
7、SSIM loss和mse loss的总用区别
上图左侧为原图,中间为把灰度值调整为原来 0.9 的图,右侧为高斯模糊后的图。我们人眼明显感觉到中间的图比右边的图清晰,然而 MSE 距离显示,右侧的图与原图的距离远小于中间的图与原图的距离,即右侧的图质量比中间的高。
作者结合神经科学的研究,认为我们人类衡量两幅图的距离时,更偏重于两图的结构相似性,而不是逐像素计算两图的差异。因此作者提出了基于 structural similarity 的度量,声称其比 MSE 更能反映人类视觉系统对两幅图相似性的判断。
https://blog.csdn.net/jacke121/article/details/90749274
8、这些loss主要都是一些语义一致性的损失,其中cycada中语义一致性损失用在原图和迁移后的图经过分类器的loss,而perceptual loss是原图和迁移后的图经过VGG的相关层的loss,底层注重纹理,高层注重结构,亦可以用在计算原图和重建后的图的VGG loss上;
https://github.com/jhoffman/cycada_release
https://github.com/a514514772/DISE-Domain-Invariant-Structure-Extraction
9、SSIM loss解读
https://blog.csdn.net/hyk_1996/article/details/87867285