Gotcha! Don’t trick me with unanswerable questions! Self-aligning Large Language Models

本文介绍了一种名为SelfAlign的新型方法,用于改进大型语言模型(LLM)处理未知问题的能力,避免给出错误答案。通过类感知自增强和差异驱动的自管理,LLM能识别并适当地回应无法回答的问题。实验结果证明,SelfAlign在多个任务中优于现有技术。
摘要由CSDN通过智能技术生成

本文是LLM系列文章,针对《Gotcha! Don’t trick me with unanswerable questions! Self-aligning Large Language Models for Responding to Unknown Questions》的翻译。

明白了!不要用无法回答的问题骗我!用于回答未知问题的自对齐大型语言模型

摘要

尽管大型语言模型(LLM)具有非凡的回答问题的能力,但即使问题没有明确的答案,它们也经常表现出相当程度的过度自信。为了避免对这些未知问题提供幻觉般的答案,现有的研究通常会调查拒绝回答这些问题的方法。在这项工作中,我们提出了一种新的、可扩展的自对准方法,利用LLM本身来增强其对不同类型未知问题的响应能力,不仅能够拒绝回答,而且能够解释未知问题的不可回答性。具体来说,SelfAlign方法首先采用两阶段的类感知自增强方法来生成大量未知的问题-答案数据。然后,我们进行视差驱动的自管理,以选择合格的数据来微调LLM本身,从而根据需要调整对未知问题的响应。在四种类型的未知问题的两个数据集上的实验结果验证了自对准方法在三种类型的任务公式方面优于现有基线。

1 引言

2 相关工作

3 方法

4 实验设置

5 实验结果

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值