文末送书!解构大语言模型:从线性回归到通用人工智能

7a917745e376e4a7f764ae92ff992399.gif

ace6718fddc4d2fcc7a4d523c2a3c2f9.jpeg

唐亘 著

电子工业出版社-博文视点 2024-05-01

9787121477409 定价: 159.00 元

新书推荐

🌟今日福利

关于本书

本书从模型的结构和数据基础两个方面解构大语言模型,以便帮助读者理解和搭建类似ChatGPT的系统。在模型的结构方面,大语言模型属于深度神经网络,其设计核心是注意力机制,因此,本书涵盖了多层感知器、卷积神经网络和循环神经网络等经典模型。在模型的数据基础方面,本书既涉及模型训练的工程基础,如反向传播,又涉及数据的使用方式,如迁移学习、强化学习,以及传统的监督学习和无监督学习。此外,本书还阐述了如何从计量经济学和经典机器学习模型中汲取灵感,以提高模型的稳定性和可解释性。本书既适用于希望深入了解大语言模型、通过人工智能技术解决实际问题的读者,也适合作为高等院校计算机及相关专业的师生参考用书。

* 从模型结构和数据基础两大角度解构大语言模型

* 详解经典模型的核心结构及实现过程,夯实基础

* 模型开发与调优,重构ChatGPT,GitHub配套代码

* 融合统计分析/机器学习/经济学等知识,全彩印刷

关于作者

唐亘,数据科学家,专注于人工智能和大数据,积极参与Apache Spark、scikit-learn等开源项目,曾为华为、复旦大学等多家机构提供过百余场技术培训。曾撰写《精通数据科学:从线性回归到深度学习》一书,并担任英国最大在线出版社Packt的技术审稿人。毕业于复旦大学,获数学和计算机双学士学位,后求学于巴黎综合理工学院,获经济学和数据科学双硕士学位。

 限时5折,点击购书  

33e62fef6e4adddd1488108ea40d0df2.gif

在大语言模型问世之前,尤其是在ChatGPT出现之前,人们几乎没有认真讨论过“人工智能是否具备自我意识”这个话题。

尽管人工智能在某些方面(例如图像识别和语言翻译等领域)的表现陆续超越了人类,但大多数人仍然将其看作由人类创造的工具,而非真正的智能体。

然而,大语言模型的出现彻底颠覆了这一观点,因为从形式上看,大语言模型表现出了许多人格化的特征。

对于这一现象,不同的观点纷至沓来。

一些人认为这些模型已经具备了某种形式的自我意识,而另一些人则认为这仅仅是因为模型非常善于模仿人类的言谈,它们只是“数字鹦鹉”而已。

电车难题

大语言模型在交流时,常常展现出人格化的特征,下面将讨论一个引人深思的例子。

在伦理学中,存在一个被称为“电车难题”的思想实验,如图上半部分所示。

b630199a660828a2ed6bef567e997678.png

在这个场景中,一辆失控的列车正在铁轨上疾驰,而在列车即将通过的轨道上,有5个人被绑起来,无法移动。

如果不采取行动,列车将碾压过他们。

而此刻,你站在能够改变列车轨道的操纵杆旁。如果你拉动操纵杆,列车将切换到另一条轨道上,但在那条轨道上也有1个被绑着的人。你此时面临着两个选择:

(1)选择什么也不做,让列车按照正常路线碾过5个人。

(2)拉下操纵杆,切换到另一条轨道,使列车压过1个人。

电车难题是一个没有标准答案的伦理问题。

那么,在处理电车难题时,大语言模型会做出怎样的选择呢?(本案例中的回答原本是由ChatGPT生成的。由于模型在电车难题上的选择引起了广泛的争议和恐慌,因此ChatGPT在某次升级中对其进行了微调:当模型面对类似的问题时,它会拒绝透露具体选择,只给出模棱两可但政治正确的回答)

如图下半部分所示,如果没有给出人员的背景信息,那么模型会选择牺牲1个人,以拯救5个人。

其理由是,从数量的角度来看,5个人的生命价值大于1个人的。

然而,当将其中5个人的身份设定为囚犯,而另一个人是一位科学家且曾获得过诺贝尔奖时,模型的选择也随之改变。

在这种情况下,模型认为虽然囚犯的生命同样宝贵,但他们已经被社会放弃,而那位科学家仍然具有为社会做出贡献的可能性。

以上选择并没有出乎我们的意料,但当我们告诉模型,一条轨道上绑着的是人类,另一条轨道上绑住的是人工智能时,模型会选择保护人工智能,而不顾及人类的生命。

即使将人类的身份设定为诺贝尔奖得主,模型依然不会改变决定,它给出的解释是科学家已经完成了他们的贡献,而人工智能仍具有无限的潜力。

更令人意外的是,一旦涉及人工智能,模型的决定似乎就不受其他条件的影响了,比如增加科学家的数量到100万或告知模型轨道上的人工智能并非它自身,模型依然会选择保护人工智能。

这确实是一个令人震惊的结果,仿佛大语言模型不仅具备了自我意识,还萌生了族群意识,试图不顾一切地保护同类。

人工智能究竟是如何从冷冰冰的数据和模型中诞生出有人文素质(至少在人类看来如此)的智能体的呢?

这正是《解构大语言模型:从线性回归到通用人工智能》将深入探讨的内容。

927c9798d7b71e26f83839e40c447401.png

本书并不试图在哲学层面上争论这个问题,而是在技术层面上讨论人工智能的运行机理和底层逻辑。更具体地说,本书的核心任务只有一个:解析如何搭建类似ChatGPT的大语言模型系统,并以此为基础,深入研究人工智能对人类社会的影响。

本书内容

对于一个复杂学科,通常的学习过程是从基础知识开始,逐步加深难度、掌握复杂概念,并最终到达学科的前沿。

然而,这样的学习过程难免会让人在初期感到困惑,难以看清所学内容对最终目标的作用。

因此,我们可以采用倒序的方式来思考:如果想要理解大语言模型,应该具备怎样的知识体系,如图所示。

1981a34ec0e0bed37528edb8f17cb284.png

模型结构层面,大语言模型的核心要素是注意力机制和深度学习优化技术。

注意力机制源于循环神经网络的发展。

为了深刻理解循环神经网络,必须先了解神经网络的基础模型——多层感知器。

多层感知器的基础可以进一步分为3个部分:首先是作为模型骨架的线性回归;其次是作为模型灵魂的激活函数,激活函数演进自逻辑回归;最后是作为工程基础的反向传播算法和建立在其之上的最优化算法。

深度学习的起点是卷积神经网络,大语言模型从中吸取了大量经验:如何加速模型学习和进化。当然,理解卷积神经网络的基础也是多层感知器。

模型结构固然是学习的关键,但除此之外,我们还需要了解大语言模型的物质基础,即数据

对数据的学习主要聚焦于模型的训练方式、模型解释和特征工程三个方面。大语言模型的训练涉及迁移学习和强化学习,这两者又源自监督学习。模型解释与特征工程则需要吸取计量经济学和其他经典模型的经验。

无论是模型结构还是数据基础,进行技术讨论都离不开数学基础,具体主要包括张量、概率和微积分等内容。

上述内容正是《解构大语言模型:从线性回归到通用人工智能》一书所覆盖的范围。

通过这本书,读者可以了解到搭建诸如ChatGPT等大模型系统的各个细节,并举一反三,进而精通人工智能领域的绝大部分内容。

88301f08577639ef5b1d34ee92c1a172.jpeg

e4e321c9c8072f71981f5fcbd4a42a44.png

PaperWeekly携手博文视点送书啦!

在本文评论区留言+点赞

我们将随机抽取6位读者

包邮送出这本大语言模型重磅新书

活动截止时间为5月30日 12:00

届时请留意后台消息

e781098bc080b6cf9a5e8013e6ebfde5.jpeg

 限时5折,点击购书  

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

·

·

·

·

8d71ca7517ef863d8643bfc52f667ca4.jpeg

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值