一份火爆AI圈的高分深度学习入门讲义,李航、马少平领衔多位科学家力荐!...

“要不要在算法中预置一些先天知识,就像人类一样?” 纽约大学知名的神经科学教授 Gary Marcus 向深度学习界大佬 Yann LeCun 发出提问。

 

换句话说,Gary Marcus 的潜在意思是,虽然深度学习感知机和语言翻译上取得长足进步,但 AI 的可解释性较差,深度学习的向量无法映射人脑的计算过程,不能完全处理抽象推理和决策。

比如,深度学习受有效盲点影响,出现的“对立图像”,产生的不连续问题,至今无法得到有效的解释。

 

那么,是否存在一套简单的算法可以解释 AI 背后的逻辑呢

 

LeCun 并未正面回答此问题。以下,特别引用 Michael Nielsen 在《深入浅出神经网络与深度学习》 (Neural Networks and Deep Learning) 一书附录中的观点,从人类大脑复杂的工作机制讲起,分别从生物学和“心智社会”理论来辩证说明以上构想是否可实现。(注:以下仅节选了原文部分内容,请至图灵社区查看全文。)


正方观点:

第一个乐观的观点:其实,用简单却强大的思想取代复杂的规律来解释一些现象,科学史上不乏这样的例子。比如,牛顿提出的万有引力理论,不仅解释了所有星体的运行原理,还能解释地球上的潮汐现象和抛物运动等。

门捷列夫的元素周期表巧妙地解释了构成整个世界的神秘的化学物质,而这些规律又能被更简单的量子力学规律解释。又如生物界中太多的复杂性和多样性产生了诸多困扰,终发现答案是自然选择作用的演化规律

 

第二个更乐观的观点:来自分子生物学对人类大脑的探究,需要多少基因信息来描述人类大脑的构造?

 

实验证明,基于对黑猩猩的所有基因序列的研究,发现黑猩猩和人类的相似度为96%左右。其中,与人类不同的DNA碱基对有1.25亿,而它总的碱基对总数约为30亿个。科学家根据以上的数据进行推演,人类思维最关键的原理存在于 1.25 亿比特上,采纳分子生物学对大脑的观点能将问题降低 9个数量级的复杂度,尽管令人振奋,但这未声明关于智能的简单算法是否可能。

 

怎样才算是“智能由简单算法产生”的证据?有些证据源自进化心理学和神经解剖学。20世界60年代,进化心理学家就发现了众多的人类一般性概念——在抚育及所有人类复杂行为中体现出来的共性。

作为对这些结论的补充,神经解剖学的大量证据表明人类的很多行为由大脑的特定区域决定,而这些区域在所有人类身上看起来都是相似的

 

反方观点:

某些人根据这些结果推断:对于大脑的不同功能,需要有不同的解释,所以大脑功能存在不可简化的复杂性,这也使得不太可能为大脑运作找出一个简单的解释(或者说简单的智能算法),例如著名的人工智能科学家 Marvin Minsky 就持有这样的观点。

在描述该理论的书中,Minsky 将自己的观察总结如下:什么让我们变得智能?其实没有奥秘。智能从我们广泛的多样性中诞生,而非从任一简单、完美的原理中。

 

作者观点:

尽管人类大脑的确包含不同的区域,各有不同的功能,但也不能断言对于大脑功能不存在简单的解释,因为很可能这些不同的构造其实有着共同的原理,实际上也可以像彗星、行星、恒星的运动都是遵循引力一样,而 Minsky 和其他人都不能反驳这样的统一观点。

 

总而言之,按照乐观的说法,我不相信人类会找到关于智能的简单算法。具体而言,我不 相信我们终能通过简短的(假设有上千行)Python(或者 C、Lisp等)程序实现人工智能,我也不认为终能借由简单的神经网络实现人工智能。但我相信,这样的程序或者神经网络值得不懈探索

这是获得见解的途径,通过追求这种进步,将来某天有望达到足够深的理解,从而设计出更高级的智能网络。因此,认为存在简单的智能算法是值得的。

 

20世纪 80年代,杰出的数学家和计算机科学家 Jack Schwartz 受邀参加一场人工智能倡导 者和怀疑者之间的辩论。辩论场面后失控,倡导者一直鼓吹研究进展非常惊人,怀疑者则非常悲观,认为人工智能完全不可能实现。Schwartz 保持超然的态度,在讨论升温时依然安静。在辩论间隙,他被问起有什么看法。

 

Schwartz 说道:“嗯,部分研究进展需要有数百个诺贝尔奖作为铺垫。”

 

我很认同这个观点。人工智能的关键是简单而强大的想法,我们能够也应该乐观地去探索这些想法。现在正需要很多这样的想法,我们仍然有很长的路要走!

原书豆瓣评分 9.5

哈工大研究生课程的高分讲义

深度学习的「the book」

迈克尔·尼尔森(Michael Nielsen) | 著

朱小虎 | 译

本书深入讲解神经网络和深度学习技术,侧重于阐释深度学习的核心概念。作者以技术原理为导向,辅以贯穿全书的 MNIST 手写数字识别项目示例,介绍神经网络架构、反向传播算法、过拟合解决方案、卷积神经网络等内容,以及如何利用这些知识改进深度学习项目。学完本书后,读者将能够通过编写 Python 代码来解决复杂的模式识别问题。

 

以原理为导向,配有动态示例,直观展示了神经网络的数学模型原理。

 

注重实践,通过解决具体问题——教计算机识别手写数字——来介绍神经网络和深度学习的核心理论。

目标读者:任何想要掌握深度学习的工程师、老师、学生、企业家、创业者都可读。

本书作者是谁

Michael Nielsen,物理学博士,现在是实验媒体研究工作室的联合创始人,曾是 YC Research 的 Research Fellow。

他是一名卓越的科学家与作家。致力于推进量子计算与现代开放科学运动。其著作具备精确专业、深入浅出、笔触幽默的特点。

其与 Issac Chang 合著的《量子信息与量子计算》是量子计算领域的经典之作,是物理学领域十大高引著作作之一(谷歌学术引用 41,466)。

受到来自麻省理工、IBM 沃森实验室、牛津大学、贝尔实验室等高校和机构的国际一流量子计算专家学者的推崇。

http://michaelnielsen.org/

本书赞誉

可以上下滚动的图片

读者好评

 

可以上下滚动的图片

译者后记

译者简介:

朱小虎,University AI 创始人兼首席科学家、Center for Safe AGI创始人、谷歌开发者机器学习专家、百度深度学习布道者。和团队核心成员一起创建了 TASA、DL Center(深度学习知识中心全球价值网络)和 AI Growth(行业智库培训)等。举办过多场国际性人工智能峰会和活动。在多个技术平台写下了近百万字的人工智能精品技术内容。曾受邀为多所国内高校制定人工智能学习规划和教授人工智能前沿课程,也曾为多家世界500强企业提供人工智能方面的战略布局建议及落地实施等方面的咨询建议。

本书从翻译完成到出版经历了长达 4 年的时间,这其中的辗转周折自不用说。很早之前,我就读过《量子计算和量子信息》,便记住了 Michael Nielsen 这个名字,基于以上,专业需要又继续阅读的 Michael 的第二本书 Neural Networks and Deep Learning ,这本被誉为深度学习的「the book」,实验和讲解结合的相当自然,尤其是深度学习可解释性方面的解读,对我触动很大,也因此有了翻译的想法,让更多读者看到!

另外,为了让大家更好地学习此书,我们提供了 PyTorch 的实现。这是由我们团队的李竞支持的。也希望能有更多的同学加入进来。(https://github.com/tigerneil/NNDL-PyTorch)

尽管深度学习已经成为很多领域的默认选项,但是人工智能的发展和影响才刚刚进入一个深水期。此时更需从经典出发,找到新的启发和思考模式,才能更好地利用已有资源发展对整个人类更加有意义的技术。《深入浅出神经网络与深度学习》就是这样一本能够给你启发,引发思考的高质量技术书。我相信,你一定能从中找到点亮你未来的那个触发点。

《深入浅出神经网络与深度学习》

火爆预购中

???? ???? ????


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值