恐怖的GPT-4到底能做什么,对技术人员有什么影响

GPT-4是OpenAI的最新模型,支持图像和文本输入,展示出人类水平的性能,尤其在法律考试中。它增强了图像理解,减少了幻觉问题,并通过RLHF强化学习提升安全性。GPT-4还引入了多模态处理,可能预示着未来模型将结合更多感官输入。此外,模型训练和数据规模显著增加,但闭源趋势明显,且SelfInstruct模式成为降低成本的方向。
摘要由CSDN通过智能技术生成

GPT-4是什么

GPT-4(Generative Pre-trained Transformer 4)是 OpenAI 发布的最新 GPT 系列模型。它是一个大规模的多模态模型,可以接受图像和文本输入,产生文本输出。输出任务依旧是一个自回归的单词预测任务,这与外界之前的预期略微不同(预期中 GPT-4 多模态会增加语音、图像、视频、文本多模态输入,输出可能也不局限于文字)。

整体来说,GPT-4 的能力已在各种专业和学术基准上表现出了人类的水平,包括以大约前 10% 的成绩通过模拟律师资格考试。而对于生成式的幻觉、安全问题均有较大的改善;同时因对于图片模态的强大识别能力扩大了 GPT-4 的应用范围。

相比其他GPT模型,

GPT-4在效果层面有哪些显著的改进或新增能力?

GPT-4 毫无疑问是目前最强的文本生成模型。

1)突破纯文字的模态,增加了图像模态的输入,具有强大的图像理解能力。

让人惊奇的是,GPT-4 在4个场景下(4/8)零样本效果超过 fine-tuned 的SOTA

2) 支持更长的上下文窗口

如之前外网泄漏图中,GPT-4 存在两个版本。其支持的上下文分别是 8K 和 32K,是 ChatGPT 上下文长度的2倍和8倍,其成本也分别为 ChatGPT 的3倍和7倍。

3) 复杂任务处理能力大幅提升

GPT-4 在更复杂、更细微的任务处理上,回答更可靠、更有创意。这在多类考试测验中以及与其他 LLM 的 benchmark 比较中得到。我们也可以从下列3个方面中看到。

4)改善幻觉、安全等局限性

在各类任务上幻觉问题显著减轻,比最新的 GPT-3.5 模型高 40%。同样在安全能力的升级上,GPT-4 明显超出 ChatGPT 和 GPT3.5。

相较于之前 GPT 系列模型,

GPT-4 在训练方式、模型架构上有哪些创新优化?

整体很黑盒,但可以做一些合理的推测如下:

首先,模型参数量估计约为10万到100万亿量级(为作者个人预估,也从另一个角度看出OpenAI定制超算的强大),主要根据 OpenAI 2020 提出的大模型缩放规律:计算预算增加 10 倍,数据集大小应增加约 1.83 倍,模型大小应增加 5.48 倍。

按照下图估计,最右处的灰点极有可能为 ChatGPT(GPT3.5类模型)。图中可以看出 GPT-4 计算量约为 GPT3.5 的1000多倍,则模型容量约为548倍左右,1750亿x548≈100万亿。

其次,GPT-4 模型训练架构加入了图像模态的输入,应与最近微软发布的 KOSMOS-1 类似。即在预训练阶段输入任意顺序的文本和图像,图像经过 Vision Encoder 向量化、文本经过普通 transformer 向量化,两者组成多模的句向量,训练目标仍为 next-word generation。

再者,关于模型训练数据内容和数量,文中提及训练数据中额外增加了包含正误数学问题、强弱推理、矛盾一致陈述及各种意识形态的数据。数据量级同样根据 OpenAI 2020 的缩放率、训练100万亿的模型,数据量是 GPT3.5(45TB数据)的190倍。

最后,GPT-4是从头训练还是在某些基座模型上得来?这暂时无从得知。可以确定的是,它增加了后训练过程,整个过程类似于做 Prompt Engineering,核心是让模型知道如何在相应场景下合适的回答问题。

GPT-4 在生成过程中的逻辑性和准确性上有何改进?

GPT-4 在生成逻辑性和准确性上均取得了进展。需要注意的是,GPT-4 基础模型在这项任务上只比 GPT-3.5 略好一点。然而经过 RLHF 的后训练后,效果才有了较大的改进,后训练整个过程类似于做 Prompt Engineering,核心是让模型知道如何在正确场景下做出合适的回答。

可以看到,GPT-4 相比 GPT3.5 和 Anthropic 优势较明显。但绝对正确率只有60%左右,尚存在较多弊端,并没有从根本上解决这样的问题,也会是后续持续发展的方向。

GPT-4 如何从根本上解决了安全问题?

GPT-4在安全问题上收效显著。针对安全问题,GPT-4的主要解决思路是利用安全相关的 RLHF ,在训练中加入额外的安全奖励信号,奖励由 GPT-4 的 zero-shot 分类器提供,即文中提到的 RBRM(基于规则的奖励模型)方法。它是一系列零样本的GPT-4 分类器。

具体来说,这些分类器接受三种输入:Prompt、Policy model 的输出以及可选的对输出的评估(人工编写)。利用这些不同安全等级的 prompt 进行训练,同时对GPT-4在不安全回复拒绝回答的行为,以及在敏感领域做安全回答作奖励,通过强化学习。最后显著改善安全能力,不安全内容下降82%。敏感领域安全回答比率上升29%。

和 ChatGPT RLHF 的方法类似,Alignment(对齐工作)在此处发挥了较大作用,同时未来也会有持续的发力空间。相比单纯累积模型参数量和数据量的「大力出奇迹」方式,其计算量相对较小。如下图,在 InstructGPT 文献中,加入RLHF 的1.3B模型,在整体胜出率上,超出了 175B 的微调模型,节省了100倍的成本。

GPT 对技术人员有何影响?

这个问题在 ChatGPT 出现之后便存在。GPT-4 只是加剧了这样的担忧。对技术人员来说,需要在研究命题、下游任务方面做思考,NLP 很多单一子任务会随之消失,会引入新的研究命题

  • 如何精准提出需求;对 ChatGPT 进行「催眠」,Prompting Project。
  • 如何更正错误:Neural Editing。
  • 安全侦测AI生成。包括整个生成过程中的安全侦测和控制。
  • 构建专有化模型,专用指令和RLHF发掘下游任务潜力。
  • Machine unleaning
    (学会忘记数据、隐私保护)
    等。

从GPT-4 可以看出未来 LLM 的哪些趋势?未来的研发方向和优化策略是什么?

1)闭源趋势

网友戏称 OpenAI 已沦为 Closed AI。毕竟从 GPT1 到 GPT-4,模型各类细节越来越闭源和黑盒,大模型战场的竞争因素决定了 GPT-4 类的第一梯度模型可能会越来越封闭,成为技术门槛。

2)「Self Instruct」模式

其核心是:中小模型+大模型生产指令数据的「LLaMA 7B + text-davinci-003」模式。中小参数的模型在成本上,是更靠近实际落地的方式。要知道 llama.cpp 可以在 Pixel 6 手机上运行。通过该模式精调过的 Alpaca,效果接近普通 GPT3.5。

3)模型结合

更多模态、更多形态结合 ChatGPT 类模型包括 Kosmos-1 和具身智能 PaLM-E,同时从听、说、看、触等全方位结合,形成类似真正智能体的概念。

4)模型加速和降低成本

这会是持续关注的方向,包括从训练、推理等多层面考量。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值