这篇论文中有使用 Charbonnier loss
与L1相比,增加了一个正则项ε。用Charbonnier Loss来近似L1损失来提高模型的性能,接近零点的值的梯度由于ε的存在,梯度不会太小,避免梯度消失。
pytorch中Charbonnier loss的使用
在train.py中调用
就可以对网络进行训练了
这篇论文中有使用 Charbonnier loss
与L1相比,增加了一个正则项ε。用Charbonnier Loss来近似L1损失来提高模型的性能,接近零点的值的梯度由于ε的存在,梯度不会太小,避免梯度消失。
pytorch中Charbonnier loss的使用
在train.py中调用
就可以对网络进行训练了