simcse模型

一个对比学习的框架

作者在这里通过将一句话分两次过同一个模型,但使用两种不同的dropout,这样得到的两个sentence embedding就作为模型的正例,而同一个batch中的其他embedding就变为了负例。

第二个代理任务就更加的直接。作者直接采用NLI有监督数据集做对比学习训练。NLI,及自然语言推理,其任务是判断两句话之间的关系。其中可能的关系有entailment (相近), contradiction (矛盾)或neutral (中立)。因此,entailment sentence pair就可以被天然的作为正例,此时如果我们继续把同batch中其他embedding作为负例,SimCSE的第二个代理任务我们就构建好了。此外,作者还尝试了把hard negative(及NLI dataset中的contradiction sentence pair)加到负例中,效果也有一定提升。

目标函数-非标准infoNCE函数

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值