ChatGPT 之父最新演讲:GPT-5即将到来,迎来史诗级提升,碾压众多AI 初创公司,真正发挥发挥作用的是什么?...

2bbdc183028c674d2f54f1ceb8baa75d.png

5eb6d229c7c9bdfbb1f3ddd390f2d9d1.png

昨日,OpenAI CEO Sam Altman 在斯坦福大学的英伟达礼堂进行了一场公开演讲,分享了 GPT-5 的性能表现、OpenAI 的 AGI 征途、到 Sora 革新娱乐方式,再到 AI 将如何干掉人类工作岗位等热议问题。而GPT-5,将会比现在的大模型更智能,小看它的公司都会被碾压。

这波热度一来,微信读书热搜榜显示,《这就是ChatGPT》登顶微信读书热搜榜第一名。

3c498e54c3070874d56a4db0c67118c3.png

斯蒂芬·沃尔弗拉姆的《这就是ChatGPT》深入浅出的讲解了让GPT发挥真正作用的到底是什么;而《大模型应用开发极简入门:基于GPT-4和ChatGPT》则带领大家快速了解GPT-4和ChatGPT的工作原理及优势,并在此基础上使用流行的Python编程语言构建大模型应用。

作者 | [美] 斯蒂芬·沃尔弗拉姆

来源 | 《这就是ChatGPT》

即使是具有简单的神经网络结构的 ChatGPT,也能够成功地捕捉人类语言的“本质”和背后的思维方式。

人类语言,及其生成所涉及的思维过程,一直被视为复杂性的巅峰。人类大脑“仅”有约 1000 亿个神经元(及约 100 万亿个连接),却能够做到这一切,确实令人惊叹。人们可能会认为,大脑中不只有神经元网络,还有某种具有尚未发现的物理特性的新层。但是有了 ChatGPT 之后,我们得到了一条重要的新信息:一个连接数与大脑神经元数量相当的纯粹的人工神经网络,就能够出色地生成人类语言。

这仍然是一个庞大而复杂的系统,其中的神经网络权重几乎与当前世界上可用文本中的词一样多。但在某种程度上,似乎仍然很难相信语言的所有丰富性和它能谈论的事物都可以被封装在这样一个有限的系统中。

这里面的部分原理无疑反映了一个普遍现象(这个现象最早在规则 30的例子中变得显而易见):即使基础规则很简单,计算过程也可以极大地放大系统的表面复杂性。但是,正如上面讨论的那样,ChatGPT 使用的这种神经网络实际上往往是特别构建的,以限制这种现象(以及与之相关的计算不可约性)的影响,从而使它们更易于训练。

那么,ChatGPT 是如何在语言方面获得如此巨大成功的呢?我认为基本答案是,语言在根本上比它看起来更简单。这意味着,即使是具有简单的神经网络结构的 ChatGPT,也能够成功地捕捉人类语言的“本质”和背后的思维方式。此外,在训练过程中,ChatGPT 已经通过某种方式“隐含地发现”了使这一切成为可能的语言(和思维)规律。

我认为,ChatGPT 的成功为一个基础而重要的科学事实向我们提供了证据:它表明我们仍然可以期待能够发现重大的新“语言法则”,实际上是“思维法则”。在 ChatGPT 中,由于它是一个神经网络,这些法则最多只是隐含的。但是,如果我们能够通过某种方式使这些法则变得明确,那么就有可能以更直接、更高效和更透明的方式做出 ChatGPT 所做的那些事情。

这些法则可能是什么样子的呢?最终,它们必须为我们提供某种关于如何组织语言及其表达方式的指导。我们稍后将讨论“在ChatGPT 内部”可能如何找到一些线索,并根据构建计算语言的经验探索前进的道路。但首先,让我们讨论两个早已知晓的“语言法则”的例子,以及它们与 ChatGPT 的运作有何关系。

第一个是语言的语法。语言不仅仅是把一些词随机拼凑在一起。相反,不同类型的词之间有相当明确的语法规则。例如,在英语中,名词的前面可以有形容词、后面可以有动词,但是两个名词通常不能挨在一起。这样的语法结构可以通过一组规则来(至少大致地)捕捉,这些规则定义了如何组织所谓的“解析树”。

70ebfc89daaa8264a1fa19a1847569f4.png

ChatGPT 并不明确地“了解”这些规则。但在训练过程中,它隐含地发现了这些规则,并且似乎擅长遵守它们。这里的原理是什么呢?在“宏观”上还不清楚。但是为了获得一些见解,也许可以看看一个更简单的例子。

考虑一种由“(”和“)”的序列组成的“语言”,其语法规定括号应始终保持平衡,就像下面的解析树一样。

0dc9e385db51a90621d1fbf96b0272ce.png

我们能训练神经网络来生成“语法正确”的括号序列吗?在神经网络中,有各种处理序列的方法,但是这里像 ChatGPT 一样使用Transformer 网络。给定一个简单的 Transformer 网络,我们可以首先向它馈送语法正确的括号序列作为训练样例。一个微妙之处(实际上也出现在 ChatGPT 的人类语言生成中)是,除了我们的“内容标记”(这里是“(”和“)”)之外,还必须包括一个“End”标记,表示输出不应继续下去了(即对于 ChatGPT 来说,已经到达了“故事的结尾”)。

如果只使用一个有 8 个头的注意力块和长度为 128 的特征向量来设置 Transformer 网络(ChatGPT 也使用长度为 128 的特征向量,但有 96 个注意力块,每个块有 96 个头),似乎不可能让它学会括号语言。但是使用 2 个注意力块,学习过程似乎会收敛—至少在给出 1000 万个样例之后(并且,与 Transformer 网络一样,展示更多的样例似乎只会降低其性能)。

通过这个网络,我们可以做类似于 ChatGPT 所做的事情,询问括号序列中下一个符号是什么的概率。

b3d35f8b2d517152aa8f3db3719aa8d2.png

在第一种情况下,网络“非常确定”序列不能在此结束—这很好,因为如果在此结束,括号将不平衡。在第二种情况下,网络“正确地识别出”序列可以在此结束,尽管它也“指出”可以“重新开始”:下一个标记是“(”,后面可能紧接着一个“)”。但糟糕的是,即使有大约 400 000 个经过繁重训练的权重,它仍然说下一个标记是“)”的概率是 15%—这是不正确的,因为这必然会导致括号不平衡。

如果要求网络以最高概率补全逐渐变长的“(”序列,结果将如下所示。

3e8fe51fc4bbd19ba2991b5d9c46cd21.png

在一定长度内,网络是可以正常工作的。但是一旦超出这个长度,它就开始出错。这是在神经网络(或广义的机器学习)等“精确”情况下经常出现的典型问题。对于人类“一眼就能解决”的问题,神经网络也可以解决。但对于需要执行“更算法式”操作的问题(例如明确计算括号是否闭合),神经网络往往会“计算过浅”,难以可靠地解决。顺便说一句,即使是当前完整的 ChatGPT 在长序列中也很难正确地匹配括号。

对于像 ChatGPT 这样的程序和英语等语言的语法来说,这意味着什么呢?括号语言是“严谨”的,而且是“算法式”的。而在英语中,根据局部选词和其他提示“猜测”语法上合适的内容更为现实。是的,神经网络在这方面做得要好得多—尽管它可能会错过某些“形式上正确”的情况,但这也是人类可能会错过的。重点是,语言存在整体的句法结构,而且它蕴含着规律性。从某种意义上说,这限制了神经网络需要学习的内容“多少”。一个关键的“类自然科学”观察结果是,神经网络的 Transformer 架构,就像ChatGPT 中的这个,好像成功地学会了似乎在所有人类语言中都存在(至少在某种程度上是近似的)的嵌套树状的句法结构。

语法为语言提供了一种约束,但显然还有更多限制。像“Inquisitiveelectrons eat blue theories for fish”(好奇的电子为了鱼吃蓝色的理论)这样的句子虽然在语法上是正确的,但不是人们通常会说的话。ChatGPT 即使生成了它,也不会被认为是成功的—因为用其中的词的正常含义解读的话,它基本上是毫无意义的。

有没有一种通用的方法来判断一个句子是否有意义呢?这方面没有传统的总体理论。但是可以认为,在用来自互联网等处的数十亿个(应该有意义的)句子对 ChatGPT 进行训练后,它已经隐含地“发展出”了一个这样的“理论”。

这个理论会是什么样的呢?它的冰山一角基本上已经为人所知了2000 多年,那就是逻辑。在亚里士多德发现的三段论(syllogistic)形式中,逻辑基本上用来说明遵循一定模式的句子是合理的,而其他句子则不合理。例如,说“所有 X 都是 Y。这不是 Y,所以它不是 X”(比如“所有的鱼都是蓝色的。这不是蓝色的,所以它不是鱼”)是合理的。就像可以异想天开地想象亚里士多德是通过(“机器学习式”地)研究大量修辞学例子来发现三段论逻辑一样,也可以想象 ChatGPT 在训练中通过查看来自互联网等的大量文本能够“发现三段论逻辑”。(虽然可以预期 ChatGPT 会基于三段论逻辑等产生包含“正确推理”的文本,但是当涉及更复杂的形式逻辑时,情况就完全不同了。我认为可以预期它在这里失败,原因与它在括号匹配上失败的原因相同。)

除了逻辑的例子之外,关于如何系统地构建(或识别)有合理意义的文本,还有什么其他可说的吗?有,比如像 Mad Libs® 这样使用非常具体的“短语模板”的东西。但是,ChatGPT 似乎有一种更一般的方法来做到这一点。也许除了“当你拥有 1750 亿个神经网络权重时就会这样”,就没有什么别的可以说了。但是我强烈怀疑有一个更简单、更有力的故事。

  推荐阅读

112d2e8afe70ef19bf56e632f423a8fd.png

作者:[美] 斯蒂芬·沃尔弗拉姆(Stephen Wolfram)

译者:WOLFRAM传媒汉化小组

国内首部由世界顶级 AI 学者、科学和技术领域重要的革新者、“第一个真正实用的人工智能”搜索引擎WolframAlpha发明人斯蒂芬·沃尔弗拉姆对 ChatGPT 最本质的原理的解释的权威之作!

OpenAI CEO,ChatGPT 之父山姆·阿尔特曼、世界顶级的 AI 学者,机器人界的巨擘,MIT 教授,多家知名机器人公司创始人,美国工程院院士罗德尼·布鲁克斯、量子位联合创始人,总编辑李根、科学作家,“得到”APP《精英日课》专栏作者万维钢联袂推荐。

02

7c3456e4bbb400ec37f5f8d5e24fa6a7.png

《大模型应用开发极简入门:基于GPT-4和ChatGPT》

作者:[比] 奥利维耶·卡埃朗(Olivier Caelen)[法] 玛丽–艾丽斯·布莱特(Marie-Alice Blete)

译者:何文斯

本书为大模型应用开发极简入门手册,为初学者提供了一份清晰、全面的“最小可用知识”,带领大家快速了解GPT-4和ChatGPT的工作原理及优势,并在此基础上使用流行的Python编程语言构建大模型应用。通过本书,你不仅可以学会如何构建文本生成、问答和内容摘要等初阶大模型应用,还能了解到提示工程、模型微调、插件、LangChain等高阶实践技术。书中提供了简单易学的示例,帮你理解并应用在自己的项目中。此外,书后还提供了一份术语表,方便你随时参考。

03

0caa71d44bf3c1a5ddd304f690c75950.jpeg

《ChatGPT:人类新纪元》

作者:马占凯

罗永浩说:“在彻底改写人类命运的巨变来临之际,推荐每一个不想被时代抛弃的朋友都看看这本书。”

搜狗输入法之父”、美团光年首席AGI布道师马占凯重磅新作;用鲜活的故事,讲述ChatGPT前世今生、AI发展史,让你了解ChatGPT究竟神奇在何处,以及未来我们的生活会是什么样。

03

bd4b90b58b52d0d3ad03514db5264112.png

《ChatGPT从入门到精通》

黄豆奶爸 | 著

ChatGPT 超牛应用书,涉及 20 多个场景,涵盖高效办公+打造 IP+副业赚钱+新知学习+生活质量提升,粥左罗、肖厂长、孙圈圈、易仁永澄、芷蓝等联合推荐。本书旨在帮助读者了解 ChatGPT 和它背后的技术原理,掌握使用它的方法,并了解它的潜在应用和影响。

04

f54557f05cf175d385120aee13f8471c.png

《ChatGPT高效提问:prompt技巧大揭秘》

作者:李世明 代旋 张涛

ChatGPT的横空出世昭示了通用人工智能的可能性,并为我们提供了更加便捷、直观和个性化的信息获取方式,有望在教育、研究、咨询和日常生活中发挥重要作用。而驾驭ChatGPT,使之更好地服务于我们的工作和生活,需要一些技巧和方法,这就是本书要探讨的prompt(提示)工程。 

本书以通俗易懂的语言,详细介绍了如何编写高质量的提示,引导ChatGPT输出优质答案,满足各种信息需求。书中包含详细解释和丰富示例,旨在帮助读者掌握利用ChatGPT解决各种问题的实用技能。

05

ffba5303e8cf0facd339cb06bb5f8aac.jpeg

《利用ChatGPT进行数据分析》

作者:张俊红

【ChatGPT高效运用】:实现智能化数据分析,快速处理海量数据。 

【案例驱动学习】:借助真实项目经验,掌握ChatGPT在数据分析中的使用技巧。 

【技术与时俱进】:紧跟最新发展,保持数据分析领域竞争优势。 

【适合新人上手】:轻松进阶,展现出色数据洞察力

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值