《论文阅读》对比学习下的自然语言生成任务系列论文讲解

31 篇文章 12 订阅 ¥29.90 ¥99.00
这篇博客深入探讨对比学习在自然语言生成(NLG)中的应用,包括无监督和监督对比学习,以及在知识对话生成中的挑战与解决方案。文章通过分析NIPs 2022、EMNLP 2023和AAAI 2024的论文,阐述CONT框架、多级别适应性对比学习和增强知识对话稳健性的方法。
摘要由CSDN通过智能技术生成

前言

亲身阅读感受分享,细节画图解释,再也不用担心看不懂论文啦~
无抄袭,无复制,纯手工敲击键盘~

今天为大家带来的是《Natural Language Generation with Contrastive Learning

在这里插入图片描述


基本知识

对比学习(Contrastive Learning)

监督学习:就是已知输入数据(Input data)和输出数据(Annotations),通过训练一个模型(Model)来建立输入和输出之间的映射。例如对话上下文x->回复y

无(自)监督学习:无监督学习则是已知输入数据(Input data),通过训练一个模型(Model)来获取输入数据的结构以及之间的关系

对比学习:对比学习是一种特殊的自监督学习方法,旨在通过最大化相关样本之间的相似性并最小化不相关样本之间的相似性来学习数据表示

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

365JHWZGo

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值