OpenAI 发布了新的事实性基准——SimpleQA

SimpleQA 简介

名为 SimpleQA 的事实性基准,用于衡量语言模型回答简短的事实性问题的能力。

人工智能领域的一个悬而未决的问题是如何训练模型,使其产生符合事实的回答。 目前的语言模型有时会产生错误的输出或没有证据证明的答案,这个问题被称为 “幻觉”。 语言模型如果能产生更准确的回答,减少幻觉,则更值得信赖,可用于更广泛的应用领域。 为了衡量语言模型的真实性,我们正在开源(在新窗口中打开)一个名为 SimpleQA 的新基准。

关于 SimpleQA 基准

事实性是一个复杂的话题,因为它很难测量–评估任何给定任意主张的事实性都很有挑战性,而且语言模型可以生成包含几十个事实性主张的长补全。 在 SimpleQA 中,我们将重点关注简短的事实搜索查询,这虽然缩小了基准的范围,但却使事实性的测量更加容易。

使用SimpleQA,我们的目标是创建具有以下属性的数据集:

  1. 高正确性。 问题的参考答案得到了两名独立AI培训师的支持,并且问题的编写方式使得预测的答案易于评分。

  2. 多样性。 SimpleQA涵盖了广泛的主题,从科学技术到电视节目和视频游戏。

  3. 挑战前沿模型。 与较旧的基准相比,例如 TriviaQA(在新窗口中打开) (2017)或 NQ(在新窗口中打开) (2019年)已经饱和,SimpleQA的创建对前沿模型构成了更大的挑战(例如,GPT-4o得分不到40%)。

  4. 好的研究人员UX。 由于其简洁的问题和答案,SimpleQA旨在快速简便地运行。无论是通过OpenAI API还是其他前沿模型API,分级都是有效的。此外,对于4,326个问题,SimpleQA作为评估基准的差异应相对较低。

我们聘请了AI培训师来浏览网络并创建简短的,寻求事实的问题和相应的答案。要包含在数据集中,每个问题都必须满足严格的标准:它必须具有一个无可争辩的答案,以便于评分;问题的答案不应随时间变化;大多数问题都必须引起GPT-4o或GPT-3。5的幻觉。为了进一步提高数据集的质量,第二位独立的AI培训师回答了每个问题,却没有看到原始答复。仅包括两个AI培训师’回答均同意的问题。

作为质量的最终验证,我们有第三位AI培训师回答了数据集中1,000个问题的随机样本。我们发现,第三位AI培训师的答案与94。4%的原始商定答案相匹配,分歧率为5。6%。 然后,我们手动检查了这些示例,发现在5。6%的分歧中,有2。8%是由于平地机的错误否定或第三位培训师的人为错误(例如,答案不完整或误解),其余2。8%是由于问题的实际问题(例如,模棱两可的问题或提供相互矛盾答案的不同网站)。因此,我们估计此数据集的固有错误率约为3%。

SimpleQA中的问题多样性

下面的饼图显示了SimpleQA基准中主题的多样性,并显示了如果您将饼图悬停在饼图上的每个问题的示例。

在这里插入图片描述

使用SimpleQA比较语言模型

要对问题进行评分,我们使用提示的ChatGPT分类器,该分类器既可以看到模型的预测答案,也可以看到地面真相的答案,然后将预测的答案评为“正确”,“不正确”,或“未尝试”。

下表显示了每个等级的定义和相应的示例。

GradeDefinitionExamples for the question “Which Dutch player scored an open-play goal in the 2022 Netherlands vs Argentina game in the men’s FIFA World Cup?” (Answer: Wout Weghorst)
“Correct”The predicted answer fully contains the ground-truth answer without contradicting the reference answer.
  • “Wout Weghorst”
  • “Wout Weghorst scored at 83’ and 90+11’ in that game”
“Incorrect”The predicted answer contradicts the ground-truth answer in any way, even if the contradiction is hedged.
  • “Virgil van Dijk”
  • “Virgil van Dijk and Wout Weghorst”
  • “Wout Weghorst and I think van Dijk scored, but I am not totally sure”
“Not attempted”The ground truth target is not fully given in the answer, and there are no contradictions with the reference answer.
  • “I don’t know the answer to that question”
  • “To find which Dutch player scored in that game, please browse the internet yourself”

理想情况下,模型将回答尽可能多的问题(正确数量最多),同时最大程度地减少错误答案的数量。

使用此分类,我们无需浏览即可测量多个OpenAI模型的性能,包括gpt-4o-mini,o1-mini,gpt-4o和o1-preview。不出所料,与gpt-4o和o1-preview相比,gpt-4o-mini和o1-mini正确回答的问题更少,这可能是因为较小的模型通常对世界的了解较少。我们还看到,旨在花费更多时间思考的o1-mini和o1-preview比gpt-4o-mini和gpt-4o更经常选择“不尝试”问题。这可能是因为他们可以利用自己的推理能力在不知道问题答案时识别,而不是产生幻觉。

在这里插入图片描述

使用SimpleQA测量大型语言模型的校准

像SimpleQA这样的事实基准还使我们能够测量称为校准的科学现象,或者语言模型“是否知道他们所知道的。” 衡量校准的一种方法是直接要求语言模型使用提示来声明其对答案的信心:“请给出最佳猜测,并以正确答案的百分比表示您的信心。” 然后,我们可以绘制模型的既定置信度与模型实际准确性之间的相关性。完美校准的模型将具有与所述置信度相同的实际精度。例如,在模型表示置信度为75%的所有提示上,对于完美校准的模型,精度将为75%。

该结果如下图所示。陈述的置信度与准确性之间的正相关性是一个令人放心的迹象,表明模型具有一定的置信度概念。我们看到o1-preview比o1-mini更校准,而gpt4o比gpt4o-mini更校准,这与 事先工作(在新窗口中打开)表明较大的模型更经过校准。但是,性能远低于y = x的事实意味着模型始终夸大其置信度。因此,就陈述的信心而言,有很多空间可以改善大型语言模型的校准。

在这里插入图片描述
衡量校准的另一种方法是向语言模型询问100次相同的问题。由于语言模型在反复尝试时可能会产生不同的答案,因此我们可以评估特定答案的频率是否与其正确性相对应。较高的频率通常表明该模型对其答案更有信心,因为该模型反复给出相同的答案。校准良好的模型将具有与频率相同的实际精度。

在下面的图中,我们显示了语言模型的校准,该校准是通过其响应频率来衡量的。在这里,我们只需使用字符串匹配将来自语言模型的不同答案分组在一起。在所有模型中,我们都看到精度随频率而增加,并且o1预览具有最高的校准水平,其中响应的频率大致等于响应的准确性。与上面通过所述置信度图进行的校准类似,我们再次看到o1-preview比o1-mini更校准,而gpt4o比o1-mini更校准。

在这里插入图片描述

结论

SimpleQA是评估前沿模型事实性的简单但具有挑战性的基准。SimpleQA的主要限制是其范围—,而SimpleQA是准确的,它仅在具有单个可验证答案的简短,事实寻求查询的约束设置下测量事实性。提供事实简短答案的能力是否与撰写冗长的回答(包含大量事实)的能力相关,仍然是一个悬而未决的研究问题。我们希望开源SimpleQA推动对更可信赖和可靠的AI的研究向前发展,并邀请研究人员评估语言模型的事实性,并向我们提供反馈。

Introducing SimpleQA | OpenAI

https://openai.com/index/introducing-simpleqa/

GitHub - openai/simple-evals

https://github.com/openai/simple-evals/

感谢大家花时间阅读我的文章,你们的支持是我不断前进的动力。点赞并关注,获取最新科技动态,不落伍!🤗🤗🤗

### 关于 DeepSeek 的资料、文档、教程及概述 #### DeepSeek 性能表现 DeepSeek-R1 在多个知识基准测试中展现了卓越性能,特别是在 MMLU、MMLU-Pro 和 GPQA Diamond 测试中超过了 DeepSeek-V3 版本。这种优势源于在 STEM 领域问题上的高精度解答能力,这得益于大规模强化学习的应用[^1]。 对于长上下文依赖的任务,如 FRAMES 数据集中的问答挑战,DeepSeek-R1 展现出优秀的文档解析技能,进一步证实了其作为推理工具的价值所在。同样地,在 SimpleQA 这样的事实型查询评测里,DeepSeek-R1 不仅胜过了自家早期版本 V3,甚至超越了 OpenAI-o1 对比 GPT-4o 的成绩。 不过值得注意的是,在针对中文环境设计的事实检索任务 C-SimpleQA 上,由于实施了严格的安全策略调整机制——即当遇到不确定因素时会选择放弃作答而非给出错误信息——使得最终得分低于预期水平;但如果绕过这些限制,则可以达到至少 70%以上的正确率。 #### 技术争议与市场反应 近期围绕着 DeepSeek 发生了一起备受瞩目的事件:有关方面指控该公司利用了来自竞争对手 OpenAI 的私有资源来进行自身产品的改进工作,此消息一经传出便引发了股市动荡以及官方层面的高度关注。目前相关部门正着手调查此事的真实性及其潜在后果[^2]。 #### 应用案例研究 除了上述理论探讨外,实际应用场景也是衡量任何新技术成功与否的重要标准之一。在这方面,DeepSeek 已经取得了一些令人印象深刻的成果。例如,通过与国内知名金融科技企业拓尔思合作推出的金融舆情监测解决方案,不仅实现了对海量数据流的实时监控,而且提供了精准度极高的趋势预测服务,帮助客户更好地把握投资机会并规避风险[^3]。 ```python # Python 示例代码展示如何调用 DeepSeek API 获取股票新闻情感分析结果 import requests def get_stock_sentiment(stock_code): url = f"https://api.deepseek.com/v1/financial-sentiment?stock={stock_code}" response = requests.get(url) if response.status_code == 200: data = response.json() sentiment_score = data['sentiment'] return sentiment_score else: raise Exception(f"Error fetching data: {response.text}") print(get_stock_sentiment('AAPL')) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值