Benchmarking Hallucination in Large Language Models based on Unanswerable Math Word Problem

本文是LLM系列文章,针对《Benchmarking Hallucination in Large Language Models based on
Unanswerable Math Word Problem》的翻译。

基于不可回答数学单词问题的大型语言模型中的基准推理

摘要

大型语言模型(LLM)在各种自然语言处理(NLP)任务中是非常有效的。然而,他们很容易在被称为幻觉的模糊环境中产生不可靠的猜测。本文基于无法回答的数学单词问题,提出了一种评估问答中LLM幻觉的新方法。为了支持这种方法,我们创新性地开发了一个名为“无法回答的数学单词问题”(UMWP)的数据集,该数据集包括五类5200个问题。我们开发了一种结合文本相似性和数学表达式检测的评估方法,以确定LLM是否认为问题是无法回答的。对31个LLM(包括GPT-3、InstructGPT、LLaMA和Claude)进行的广泛实验结果表明,上下文学习和强化学习与人类反馈(RLHF)训练显著增强了模型避免幻觉的能力。我们证明,利用MWP是评估幻觉的可靠和有效的方法。我们的代码和数据在https://github.com/Yuki-Asuuna/UMWP上可用。

1 引言

2 相关工作

3 数据集构建

4 评估方法

5 实验

6 结论

LLM的幻觉有可能严重误导人类。本研究从不可回答的数学单词问题(UMWP)的角度探讨了LLM中幻觉的评价

  • 5
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值