Enhancing Robustness in Large Language Models: Prompting for Mitigating the Impact of Irrelevant

本文是LLM系列文章,针对《Enhancing Robustness in Large Language Models: Prompting for Mitigating the Impact of Irrelevant Information》的翻译。

摘要

近年来,大型语言模型 (LLM) 因其在复杂推理任务中的卓越表现而受到广泛关注。然而,当问题描述包含不相关的信息时,即使使用高级提示技术,最近的研究也可能会显着削弱他们的推理能力。为了进一步研究这个问题,构建了一个包含不相关信息的小学数学问题数据集,名为 GSMIR。在此数据集上测试突出的 LLM 和提示技术表明,虽然 LLM 可以识别不相关的信息,但一旦识别出来,它们并不能有效减轻它造成的干扰。为了解决这一缺点,提出了一种新的自动构造方法 ATF,它增强了 LLM 识别和自我减轻不相关信息影响的能力。此方法分两步进行:首先,分析不相关的信息,然后进行过滤。实验结果证明,ATF 方法显著提高了 LLM 和提示技术的推理性能,即使在 GSMIR 数据集上存在不相关的信息时也是如此。

1 引言

2 相关工作

3 GSMIR数据库

<

  • 6
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值