对比学习与多分类学习密切相关,包括对比学习损失和softmax分类损失的相关,最大的差别也就是距离的约束条件不同,也可以说是损失函数的不同。因为我目前做的是二分类,所以先简单的看一下二分类的损失。
1、使用交叉熵函数用于分类的损失的原理是:
对某一个样本正确的标签也就是1乘某样本预测正确的概率 ,得到每个样本的损失,然后所有样本的损失求平均,得到模型的损失。不同的模型就算最后得到预测正确的结果是一样的,但是概率的差距可能不同,因此交叉熵损失能够衡量模型的性能差异。损失越小表示性能越好
sigmoid(softmax)+cross-entropy loss 擅长于学习类间的信息,因为它采用了类间竞争机制,它只关心对于正确标签预测概率的准确性,忽略了其他非正确标签的差异,导致学习到的特征比较散。基于这个问题的优化有很多,比如对softmax进行改进,如L-Softmax、SM-Softmax、AM-Softmax等。
softmax损失是衡量
均匀性有助于对比学习学习可分离的特征,但过分追求均匀性会使对比损失对语义相似的样本无法容忍,这可能会破坏潜在的语义结构,不利于形成对下游任务有用的特征。容忍性是指
2、对比学习triple loss
2.1原理
其中a表示anchor&#