Enhancing Self-Consistency and Performance of Pre-Trained Language Model

515 篇文章 3 订阅

已下架不支持订阅

本文提出ConCoRD框架,通过自然语言推理增强预训练语言模型的一致性和准确性,无需微调。利用NLI模型,ConCoRD在闭卷QA和VQA任务上提升了模型性能,如LXMERT在ConVQA上准确率提升5%。未来工作包括与生成问题方法集成,以及在其他领域的应用。
摘要由CSDN通过智能技术生成

本文是LLM系列文章,针对《Enhancing Self-Consistency and Performance of Pre-Trained Language Models through Natural Language Inference》的翻译。

通过自然语言推理增强预训练语言模型的自一致性和性能

摘要

虽然大型预训练语言模型很强大,但它们的预测在测试输入之间往往缺乏逻辑一致性。例如,最先进的Macaw问答(QA)模型回答“麻雀是鸟吗?”鸟有脚吗?麻雀有脚吗?为了解决这种失败模式,我们提出了一个框架,即通过关系检测一致性校正(ConCoRD),用于使用预训练的自然语言推理(NLI)模型提高预训练的NLP模型的一致性和准确性,而无需微调或重新训练。给定一批测试输入,ConCoRD为每个输入采样几个候选输出,并实例化一个因子图,该因子图既说明了模型对孤立的每个答案选择的可能性的信念,也说明了NLI模型对成对的答案选择兼容性的信念。我们证明了一个加权的MaxSAT求解器可以在这个因素图下有效地计算高质量的答案选择,比原始模型的预测更好。我们的实验表明,ConCoRD使用现成的NLI模型持续提高了现成的闭卷QA和VQA模型的准确性和一致性,特别是将LXMERT在ConVQA上的准确性绝对提高了5%。有关代码和数据,请参阅项目网站。

1 引言

2 相关工作

3 通过关系检测进行一致性校正

4 实验

5 讨论与结论

我们已经提出了ConCoRD框架,用于使用预训练的NLI模型估计的关系来增强预训练语言模型的自一致性,表明它在各种设置下提高了现成的性能,而不需要任何微调。我们的研究结果

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值