ML基本知识(十六)损失函数

推荐系统相关

pairwise hinge loss

其衡量的是pairwise场景下正负样本的差异,公式如下所示,其中 m a r g i n margin margin代表的是预设的阈值, u u u代表输入query, d + d+ d+代表的是正样本, d − d- d代表的是负样本, < > <> <>代表的是两个向量之间的相似度,该公式代表的含义是只有当输入query与正样本足够相似时,loss才会降为0,否则与正样本越不相似或者与负样本越相似,则loss都会变得很大。

l o s s = m a x ( 0 , m a r g i n − < u , d + > + < u , d − > ) loss = max(0, margin - <u, d+> + <u, d->) loss=max(0,margin<u,d+>+<u,d>)

bpr loss

其同样衡量的是pairwise场景下正负样本的差异,公式如下,可以看出其整体的含义和pairwise hinge lossl类似,但少了 m a r g i n margin margin参数,这使得模型变得更加鲁棒。

l o s s = l o g ( 1 + e x p ( < u , d − > − < u , d + > ) ) loss = log(1 + exp(<u, d-> - <u, d+>)) loss=log(1+exp(<u,d><u,d+>))

常规

contrastive loss

对比损失,让相似样本尽量相似,非相似样本尽量不相似,公式如下所示:

l o s s = 1 N ∑ n = 1 N y d 2 + ( 1 − y ) m a x ( m a r g i n − d , 0 ) 2 loss = \frac{1}{N}\sum_{n=1}^N yd^2+(1-y)max(margin-d,0)^2 loss=N1n=1Nyd2+(1y)max(margind,0)2

triplet loss

从名称上可以看出,该损失函数的输入由三部分构成,这三部分分别是anchor(锚点)、positive(正例)以及negative(负例)。triplet loss的核心思想由有如下三部分构成:

  1. anchor与negative差异越大越好
  2. anchor与positive差异越小越好
  3. positive与negative差异越大越好

基于上面三个子思想,写出triplet loss的公式,其中anc、pos以及neg是anchor、positive以及negative在模型中的表示,可以理解为 a n c = f ( a n c h o r ) anc=f(anchor) anc=f(anchor) p o s = f ( p o s i t i v e ) pos=f(positive) pos=f(positive) n e g = f ( n e g a t i v e ) neg=f(negative) neg=f(negative)
l o s s = { 2 ∗ ∥ p o s − a n c ∥ 2 − ∥ p o s − n e g ∥ 2 − ∥ a n c − n e g ∥ 2 + m a r g i n      i f   l a b e l = 1 2 ∗ ∥ n e g − a n c ∥ 2 − ∥ n e g − p o s ∥ 2 − ∥ a n c − p o s ∥ 2 + m a r g i n      i f   l a b e l = 0 loss = \left\{\begin{matrix} 2 * \left \| pos - anc \right \|^2 - \left \| pos - neg \right \|^2 - \left \| anc - neg \right \|^2 + margin \ \ \ \ if \ label = 1 \\ 2 * \left \| neg - anc \right \|^2 - \left \| neg -pos \right \|^2 - \left \| anc - pos \right \|^2 + margin \ \ \ \ if \ label = 0 \end{matrix}\right. loss={2posanc2posneg2ancneg2+margin    if label=12neganc2negpos2ancpos2+margin    if label=0

上述公式的含义为:

  1. 如果label为1,则pos与anc差异越小越好 + pos与neg差异越大越好 + anc与neg差异越大越好
  2. 如果label为0,则neg与anc差异越小越好 + pos与neg差异越大越好 + anc与pos差异越大越好
  3. margin存在的意义为提升模型学习的难度,因为如果不加margin,则模型很容易把anc、pos以及neg弄成0,这样loss也会很小。

这里给出triplet loss的tf代码实现:

def triplet_loss(self, pos, neg, anc, label):
    part1 = tf.reduce_sum(tf.square(pos - anc), axis=-1)
    part2 = tf.reduce_sum(tf.square(pos - neg), axis=-1)
    part3 = tf.reduce_sum(tf.square(anc - neg), axis=-1)

    part1_1 = tf.reduce_sum(tf.square(neg - anc), axis=-1)
    part2_1 = tf.reduce_sum(tf.square(neg - pos), axis=-1)
    part3_1 = tf.reduce_sum(tf.square(anc - pos), axis=-1)

    loss1 = tf.expand_dims(2 * part1 - part2 - part3 + self.triplet_loss_margin, axis=-1)
    loss2 = tf.expand_dims(2 * part1_1 - part2_1 - part3_1 + self.triplet_loss_margin, axis=-1)
    loss = tf.where(tf.equal(label, 1.0), loss1, loss2)

    return loss

参考

  1. 对比损失
  2. triplet loss
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
课程导语:    人工智能可谓是现阶段最火的行业,在资本和技术协同支持下正在进入高速发展期。当今全球市值前五大公司都指向同一发展目标:人工智能。近几年,人工智能逐渐从理论科学落地到现实中,与生活越来越息息相关,相关的各种职位炙手可热,而深度学习更是人工智能无法绕开的重要一环。 从AlphaGo打败李世石开始,深度学习技术越来越引起社会各界的广泛关注。不只学术界,甚至在工业界也取得了重大突破和广泛应用。其中应用最广的研究领域就是图像处理和自然语言处理。而要入门深度学习,CNN和RNN作为最常用的两种神经网络是必学的。网上关于深度学习的资料很多,但大多知识点分散、内容不系统,或者以理论为主、代码实操少,造成学员学习成本高。本门课程将从最基础的神经元出发,对深度学习的基础知识进行全面讲解,帮助大家迅速成为人工智能领域的入门者,是进阶人工智能深层领域的基石。 讲师简介:赵辛,人工智能算法科学家。2019年福布斯科技榜U30,深圳市海外高层次人才(孔雀人才)。澳大利亚新南威尔士大学全奖博士,SCI收录其发表过的10篇国际期刊学术文章。曾任深圳市微埃智能科技有限公司联合创始人。CSDN人工智能机器学习、深度学习方向满分级精英讲师。授课风格逻辑严谨、条理清晰、循序渐进、循循善诱,化枯燥为如沐春风,所教学生人数过万。 课程设计: 本课程分为5大模块,19小节,共计540时长(约9小时): 第一部分,课程介绍、目标与内容概览。主要学习人工智能深度学习应用场景;熟悉深度学习主流技术;掌握使用keras解决深度学习主要问题(神经网络、卷积神经网络、循环神经网络),以及深度学习主要内容:神经网络、卷积神经网络、循环神经网络;案例简介。 第二部分,深度学习之多层感知器(MLP)。主要学习多层感知器(MLP);MLP实现非线性分类;深度学习实战准备;Python调用keras实现MLP。 MLP技术点实战案例:第三部分,深度学习之卷积神经网络(CNN)。主要学习卷积神经网络 ; CNN模型分析;主流CNN模型; Python调用keras实现CNN; CNN技术点实战案例:第四部分,深度学习之循环神经网络(RNN)。主要学习循环神经网络;RNN模型分析;Python调用keras实现RNN。 RNN技术点实战案例: 第五部分,综合提升。主要进行迁移学习;混合模型;实战准备+综合实战,以及最后进行课程内容总结。 混合模型技术点实战案例

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值