算法还是算力?周志华微博引爆深度学习的“鸡生蛋,蛋生鸡”问题

AlphaZero在围棋及其他棋类游戏中的突破引发了关于算法与算力贡献的讨论。南大周志华教授认为,机器学习的进步至关重要,而中科院包云岗研究员则强调算法与算力相辅相成。Hinton等人指出,计算能力、大数据及算法突破共同推动了深度学习的发展。
摘要由CSDN通过智能技术生成


来源:AI科技大本营


上周,由强化学习加持的AlphaZero,把DeepMind在围棋上的突破成功泛化到其他棋类游戏:8小时打败李世石版AlphaGo,4小时击败国际象棋最强AI——Stockfish,2小时干掉日本象棋最强AI——Elmo,34小时胜过训练3天的AlphaGo Zero。



对于这个不再需要训练数据的AlphaZero,有人将其突破归功于DeepMind在实验中所用的5064个TPU的强大计算能力,更有甚者则将整个深度学习的突破都归功于算力,瞬间激起千层浪。


很快,南大周志华教授就在微博上指出,这个说法是绝对错误的!


“最重要的进步是由机器学习技术的进步带来的,计算能力起到了促进作用而不是根本作用。”他的全文是这样的:



对此,中科院计算所的包云岗研究员则表示,“算法进步和计算能力进步对今天AI都不可或缺”,二者相辅相成。其中算力提升的作用则表现在运行时间减少、功耗降低、开发效率提高这几大方面,进步相当显著:



此后,周志华教授则把该问题进一步定性为:“机器学习的进步使我们从‘不能’到‘能’,计算能力的进步使我们从‘能’到‘更好’。试图抹杀前者的作用,认为一切都是计算能力提高带来的,是错误且危险的”



交锋的双方均有数据来做支撑:一边强调算法效率所提升的3万倍;另一边强调计算能力所提升的1万倍,特别是并行计算能力所带来的200万倍提速。


随后,杜克大学副教授陈怡然也加入论战,在他那篇《有关最近深度学习的两个争论》中,陈教授认为计算能力的提高对于深度学习的发展是有很大贡献的,他特别提到了Hinton老爷子和李飞飞教授的观点:


之前很多文章说到深度学习这波高潮的标志性起点是2006年Hinton那篇Science文章。在这篇文章里Hinton其中第一次明确提到计算能力是其研究能成功的三大条件之一:“provided that computers were fast enough, data sets were big enough,and the initial weights were close enough to a good solution”。2014年IBM TrueNoth芯片的发布会我受邀请在现场,当时刚刚加入斯坦福不到两年的李飞飞在她的邀请报告中明确提到CNN等深度学习模型的架构和1989年被发明时并无显著区别,之所以能广泛应用的主要原因时两个主要条件的变化:大数据的出现和运算力的提升(大约提高了一百万倍)。


这里提到的Hinton老爷子那篇文章,是他和当时的学生Russ Salakhutdinov(如今的苹果AI主管)共同署名的《Reducing the Dimensionality of Data with Neural Networks》一文。他们在文中提出了一种在前馈神经网络中进行有效训练的算法,即将网络中的每一层视为无监督的受限玻尔兹曼机,再使用有监督的反向传播算法进行调优。


这一论文奠定了反向传播算法在深度学习中的支柱性地位,并给出了深度学习成功的三大基石:计算能力、大数据和算法突破。


“事后来看的话,利用大数据训练计算机算法的做法或许显而易见。但是在2007年,一切却没那么明显……”这是李飞飞教授2015年在TED演讲时所做的总结。到2009年,规模空前的ImageNet图片数据集诞生了。其中包括1500万张照片、涵盖22000种物品,仅”猫”一个对象,就有62000多只长相各异、姿势五花八门、品种多种多样的猫的照片。


这一“猫”的数据集,为吴恩达2012年在Google Brain实现“认出YouTube视频上的猫”的成果奠定好了基础。


同样在2012年,基于ImageNet的图像识别大赛,Hinton和他的学生Alex Krizhevsky在英伟达GPU上取得视觉领域的突破性成果。据此,英伟达研究中心的Bryan Catanzaro跟吴恩达合作研究GPU,结果证实,12个GPU的深度学习能力相当于2000个CPU的表现总和。


而后,英伟达开始在深度学习上发力——投入20亿美元、动用数千工程师,第一台专门为深度学习优化的GPU被提上日程。经过3年多的开发,直到2016年5月正式发布,才有了老黄GPU的深度学习大爆炸。


简单来从时间线上看,确实是先有算法上的突破,而后才有更大规模的数据集,以及专注于深度学习的GPU硬件。把这一切归功于计算能力的提升,似乎确有免费替老黄卖硬件的嫌疑。


但是看具体的进展,Hinton老爷子2006年的算法突破终究离不开当时的数据集与计算机硬件。毕竟,Pascal语言之父Niklaus Wirth早就告诉我们,算法加上数据结构才能写出实用的程序。而没有计算机硬件承载运行的程序代码,则又毫无存在的意义。


回到AlphaZero的问题,它的突破到底该归功于算法还是算力?


我们知道,AlphaZero是AlphaGo Zero的进一步优化,后者的目的是让电脑不学人类的对局也能学会围棋,这是AlphaGo彻底打败人类之后,DeepMind赋予其围棋项目的新使命。尽管不使用任何训练数据,AlphaZero却用到5000个TPU来生成对弈数据,而用于模型训练的TPU数量仅为64个。


而这里的一切投入,不过是DeepMind之父Demis Hassabis想要解决通用学习问题、超越人类认知极限的一个注脚。如果没有DeepMind大量的人力物力投入,蒙特卡洛树搜索算法和GPU并行计算可不会自发地进化成AlphaGo并打败李世石、柯洁,如果没有更进一步的投入,AlphaGo Zero也不会自己就能学会围棋,AlphaZero更不会自动把它的围棋能力泛化到其他棋类上。


也就是说,AlphaZero和它的强化学习算法、它的TPU运算集群,是由它背后David Silver、Demis Hassabis等人的疯狂努力才组合出最佳的效果,向解决通用学习的最终问题又迈进了一步。


而撇开这个全景,单点去谈算法和算力之于深度学习孰强孰弱,就有点像是抛开鸡的整个物种的进化,而去谈先有鸡还是先有蛋的问题……问题只是,到底大家是关心鸡的祖先多一点呢?还是关心餐盘内的鸡蛋、鸡肉好不好吃多一些?


未来智能实验室致力于研究互联网与人工智能未来发展趋势,观察评估人工智能发展水平,由互联网进化论作者,计算机博士刘锋与中国科学院虚拟经济与数据科学研究中心石勇、刘颖教授创建。


未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎支持和加入我们。扫描以下二维码或点击本文左下角“阅读原文”


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值