写在前面
本文是介绍tf.losses 模块(实际就是对tf.nn.下面的loss函数的高级封装)。之前本人常用slim.losses.XXX(),但强迫症发作受不每次都提示:
"2016-12-30. Use tf.losses.sigmoid_cross_entropy instead."
"2016-12-30. "Use tf.losses.softmax_cross_entropy instead."
......
于是乎换了tf.losses. 下的loss实现函数,刚用还是遇到坑,故写此文,总结下经验,如有错误,欢迎指正。
正文
首先放出tensorflow的官方的api:官网API
此模块下主要的Functions有:
absolute_difference(): 为训练过程添加一个“绝对差异”loss,其实就是做差后取绝对值作为loss。
add_loss(): 为loss集合添加额外定义的loss。
compute_weighted_loss(): 计算加权loss。
cosine_distance(): Adds a cosine-distance loss to the training procedure. (deprecated arguments)
get_losses(): 从loss集合中获取loss列表。
get_regularization_loss(): 获取整体的正则化loss。
get_regularization