No.1: MSE(Mean Squared Error)
公式:
以单个样本举例:假设a=σ(z), where z=wx+b
利用SGD算法优化损失函数,通过梯度下降法改变参数从而最小化损失函数:
链式原则对两个参数权重和偏置进行求偏导:
MSE作为像素级的损失函数,只考虑了像素之前的差距,而并没有考虑整张图像的特征分布,比如在图像超分辨率任务中,可能得到很高的PSNR值,但是并不符合我们人的视觉高观,细节纹理很多信息都被破坏了。
那我觉得关键问题是如何把图像原始特征分布考虑进去呢?我反正没有看见有关文献对MSE本身算法进行改进,更多的用一些巧劲避过这个问题,比如Perceptual Losses,虽然确实有效!能不能对MSE做一个推演呢,对计算MSE的步骤进行改进,比如最终求和的步骤,能不能用别的方式代替求和呢?比如缩放到一致尺度后,求其方差,从而得到最终loss。一定觉得我在鬼扯吧,hhh,琢磨一下我觉得可行,虽然我没有试验过,将来有机会做一些小实验,再继续更新。
No.2: Sharpening
第二个Sharpen在半监督学习中常用,用来增强无标签数据的预测自信度。当T趋于0的时候,增强后的概率分布就变成了one-hot的编码。很显然,这个一定要正样本才可以使用。
那我有一个想法,负样本为什么不能用呢。对不在预测类别中的负样本,我希望能够降低自信度,从而让最后预测结果趋于平均分布,这能不能间接增强我对目标类别的学习能力呢。hhh可以实时哦,同样,等以后有时间了做完实验继续更新!
好了,都是我的一顿瞎扯。嘿嘿嘿嘿嘿。