谷歌与OpenAI合作,用Google Search为大模型刷新!

图片

最近一项由Google、University of Massachusetts Amherst、OpenAI联合发布的研究探讨了大型语言模型(LLMS)面临的一个重要挑战,即它们在适应不断变化的世界时的困难。研究作者引入了一个新的动态问答基准测试,称为FRESHQA,旨在深入研究LLMS生成文本的准确性。他们对各种不同的LLMS在FRESHQA上的表现进行了评估,发现这些模型在处理涉及迅速变化的知识和纠正错误前提的问题时存在一定的限制。

此外,为了解决这一问题,研究团队提出了一种简单而高效的方法,即FRESHPROMPT。该方法通过从搜索引擎中获取相关和最新的信息,并将其融入LLMS的提示中,显著改善了模型在FRESHQA基准测试上的性能。

大模型研究测试传送门

GPT-4能力研究传送门(遇浏览器警告点高级/继续访问即可):

gpt4test.com

**论文题目:
**FRESHLLMS: Refreshing Large Language Models with Search Engine Augmentation

**论文链接:
**arxiv.org/pdf/2310.03…

FRESHQA的构建

大部分大型语言模型(LLMS)只训练一次,不再更新,因此无法动态适应不断变化的世界。为了研究了LLM生成的文本在回答测试当前世界知识问题时的真实性。作者提出了一个新颖的动态问答基准FRESHQA,其中包括600个问题,根据答案性质分为四个主要类别:

  • 永不变化,答案几乎不会改变
  • 缓慢变化,答案通常在数年内发生变化
  • 快速变化,答案通常在一年或更短时间内发生变化
  • 虚假前提,包括前提事实不正确,因此必须被驳斥的问题

作者要求注释员以两种不同的难度级别编写问题:

单跳问题:其中问题明确提到了回答问题所需的所有相关信息,因此不需要额外的推理(例如,“谁是Twitter的CEO”);

多跳问题:其中问题需要进行一项或多项额外的推理步骤,以收集回答问题所需的所有相关信息(例如,“世界上最高建筑的总高度是多少”)。

图片

基于FRESHQA的测评结果

作者通过向不同的LLM提出问题,并可选地提供一些问题-答案示范,然后对响应进行采样,来评估它们在FRESHQA上的表现。包括基本的预训练模型T5,PALM和PALMCHILLA等,一些指令调优模型FLAN-T5和FLAN-PALM,以及OpenAI的GPT-3.5,CODEX,CHATGPT和GPT-4。作者对模型响应事实准确性进行了两种模式的评估:RELAXED,仅衡量主要答案是否正确; STRICT,衡量响应中所有声明是否事实和最新(即没有虚构)。

在评估前,两位作者独立地在这两种模式下评估了100个答案的子集,结果显示"RELAXED"模式下的一致性为99%,"STRICT"模式下的一致性为96%。这表明评估标准在比较不同LLMS时是可靠的。

图片

▲图2

图2中展示了不同LLM在FRESHQA上的准确性,包括两种评估模式。首先,明显可见所有模型在FRESHQA上都面临着挑战。在STRICT模式下,总体准确率在0.8%到32.0%之间,在RELAXED模式下在0.8%到46.4%之间。将评估模式从RELAXED切换到STRICT模式会导致CHATGPT和GPT-4的准确率显著下降。主要原因是由于它们无法访问实时信息,因此产生了“过时”的答案,而在许多情况下,它们会“拒绝”提供答案(例如,“作为人工智能语言模型,我无法提供实时信息”)。同样,在STRICT模式下,PALM的准确性(跨模型大小)也显著下降。其中很大一部分下降是由于一些异常,比如具有意外特殊标记的类似对话的响应(例如,对话结束标记[eot]),以及虚构。相比之下,FLAN-PALM和CODEX由于其简明直接的答案几乎没有虚构。

FRESHPROMPT后的测评

在FRESHQA数据集上的低准确性在很大程度上并不令人意外,因为所有作者评估的模型都没有访问实时信息的能力。为了解决这个问题,研究团队提出了一种名为FRESHPROMPT的方法,通过将从搜索引擎(GOOGLE SEARCH)检索到的相关和最新信息合并到提示中,显著提高了LLM在FRESHQA上的性能。

图片

将所有检索到的内容都转化为一个统一的格式,包括来源网页、日期、标题、文本摘录和高亮词语(左侧),向模型展示了一个示例问题以及问题的一系列检索到的证据,然后对这些证据进行推理以找出最相关和最新的答案(右侧)。

FRESHPROMPT方法利用文本提示来实现两个目标:

(1) 从搜索引擎中引入与上下文相关和最新的信息(包括与相关问题的答案),提供给预训练的LLM

(2) 教导模型对检索到的证据进行推理

图片

▲表1

FRESHPROMPT显著提高了LLMs在FRESHQA的准确性,表1呈现了在STRICT模式下的具体实验数据,FRESHPROMPT在各个方面都显著提高了GPT-3.5和GPT-4的性能。在STRICT和RELAXED模式下,GPT-4 + FRESHPROMPT的绝对准确率分别提高了47%和31.4%。STRICT和RELAXED之间的绝对准确率差距减小(从17.8%减小到2.2%),这也表明FRESHPROMPT显著减少了过时和虚构答案的存在。除此之外,作者发现一些LLM具备推翻虚假前提问题的能力,例如在回答之前请检查问题是否包含有效前提。若将这个前提检查添加到GPT-3.5和GPT-4会在STRICT模式下分别提高虚假前提问题的准确率+23.4%和+6.4%(在RELAXED模式下分别提高+22.6%和+11.3%)。

结语

这种研究方法的确为整合动态变化的知识到语言模型中提供了一个创新方案,允许从Google Search中获取相关证据是一个强大的功能,可以使模型保持其答案的时效性,尤其在当前的快速变化的信息时代。但是该方法的一个主要限制是需要定期更新答案。这意味着,为了保持答案的准确性和时效性,必须持续投入资源和时间。

读者福利:如果大家对大模型感兴趣,这套大模型学习资料一定对你有用

对于0基础小白入门:

如果你是零基础小白,想快速入门大模型是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。

资源分享

图片

大模型AGI学习包

图片

图片

资料目录

  1. 成长路线图&学习规划
  2. 配套视频教程
  3. 实战LLM
  4. 人工智能比赛资料
  5. AI人工智能必读书单
  6. 面试题合集

人工智能\大模型入门学习大礼包》,可以扫描下方二维码免费领取

1.成长路线图&学习规划

要学习一门新的技术,作为新手一定要先学习成长路线图方向不对,努力白费

对于从来没有接触过网络安全的同学,我们帮你准备了详细的学习成长路线图&学习规划。可以说是最科学最系统的学习路线,大家跟着这个大的方向学习准没问题。

图片

2.视频教程

很多朋友都不喜欢晦涩的文字,我也为大家准备了视频教程,其中一共有21个章节,每个章节都是当前板块的精华浓缩

图片

3.LLM

大家最喜欢也是最关心的LLM(大语言模型)

图片

人工智能\大模型入门学习大礼包》,可以扫描下方二维码免费领取

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值