刻意练习

如果真的希望获得比别人更强的能力,要超级勤奋,Work Super Hard。

方法论重不重要?非常重要,但当你的方法论精进到极致之后,你还是得回到最最根本的勤奋,甚至是可怕的勤奋!

那做到可怕的勤奋就够了吗?依然是不够的。

可能我们只是在原地打转,一直在努力做些事倍功半的事。

所以,我们还得再加上两个字——“高效”,高效而可怕的勤奋。

01

前两天,教育部一则新增 35 所高校“人工智能”本科专业的消息,引发了社会的广泛关注。

这意味着人工智能将以更快的速度和更猛烈的势头,融入我们生活的方方面面。

大多数人对于人工智能的认识,应该是从 AlphaGo ——那个让棋手们咬牙切齿的机器人开始的。

刻意练习的3种模式,很多“天才”不过是找对了方法

AlphaGo 把“高效而可怕的勤奋”体现得淋漓尽致,大数据和人工智能技术,让它建立了每一步都有反馈的学习机制。

如果你了解到更多 AlphaGo 的“成长历程”,可能你也会跟我一样,从叹为观止,到不寒而栗。

02

2016年4月,AlphaGo 战胜李世石;2017年5月,AlphaGo战胜柯洁。

刻意练习的3种模式,很多“天才”不过是找对了方法

▲柯洁说:它下出了令我绝望的一步棋,我知道那盘棋我不可能赢

出现在柯洁面前的 AlphaGo早已今非昔比,这一年里,它从 1.0版进化到了2.0版。

差别在哪里?

1.0 版战胜李世石的AlphaGo,先学 10 万局棋谱,把全人类的经典棋谱尽收眼底。然后,分析棋局定式和得失,最后生成了自己的策略算法。

但是后来,开发AlphaGo的公司DeepMind 觉得这还不是最强形态。

就算是把人类的10万局棋谱学过来,只不过相当于古今中外所有围棋高手合战一人罢了。

可以下赢一个李世石,但也注定比李世石高不到哪儿去。

如果对手无比强大,可能一拥而上再多人也不是对手。

于是,有了后来的 AlphaGo 2.0。

AlphaGo 2.0 与之前最大的不同是:没有棋谱喂养。

工程师们只告诉 AlphaGo 最基本的围棋规则。大概就是黑先白后、交替落子,怎么算输、怎么算赢……然后,找两个这样的 AlphaGo 围棋宝宝,开始对弈。

从0开始学,从0开始下,下了多少盘?

第一天嘛,先下100万盘,试试水。

就这样,每天100万盘……

刻意练习的3种模式,很多“天才”不过是找对了方法

2.0版本的AlphaGo,不再跟人类学怎么下围棋,而是跟自己学。

这时的 AlphaGo肯定不知道什么是相思断、无忧角……

但它们知道谁输谁赢,甚至还能复盘棋局,为每一步打分,推测哪一步对、哪一步错、哪一步可以更好。

基于规则和输赢,AlphaGo建立了反馈体系,根据每天的 100万盘,AlphaGo开始不断优化算法。

就这样,每天下、不断学……

直到柯洁出现,这时,AlphaGo 跟柯洁早已不是同一量级。

或者说,它已经超越了整个人类的围棋水平。

聂卫平讲过一句话:

AlphaGo 最可怕的地方在于——它终于让我们知道,人类其实根本就不懂围棋。

过去,人类对围棋的理解,从一开始,可能就被我们有限的知识框定了。

基于反馈机制的学习,才是真正的高效而可怕的学习。

03

我们再来看几个AlphaGo 的学习片段,看看什么是高效而可怕的学习能力。

AlphaGo 诞生之后,为了检验它的学习能力,DeepMind 做过一个测试。

让它挑战简单的电子游戏——打方块。

刻意练习的3种模式,很多“天才”不过是找对了方法

很多人小时候玩过这游戏,屏幕下方有一个小球拍,球掉下来时,你要控制球拍把球挡回去。

屏幕上方有很多砖块,用小球把砖块一个个打掉,全打完就算赢了。

这游戏的规则和输赢标准特别清楚,先跟 AlphaGo明确了底层反馈体系。

与下围棋一样,一旦建立了规则和反馈体系,根本不用教它“应该”怎么玩,反正你就去玩吧!

接下来,我们观察他的学习方式。

这是它玩了100局的结果——

刻意练习的3种模式,很多“天才”不过是找对了方法

这个阶段,球拍在AlphaGo的控制下,显得特别的木讷,都不知道该往哪动,很多球接不起来。

然后,它自我学习了200局之后——

刻意练习的3种模式,很多“天才”不过是找对了方法

你是不是明显感觉到它的身法灵活多了?它逐步开始对球的落点有了判断。

继续进步,这是400局练习之后——

刻意练习的3种模式,很多“天才”不过是找对了方法

每个球都能接起来,非常棒!

好,时间来到了第600局,可怕的事情发生了——

刻意练习的3种模式,很多“天才”不过是找对了方法

你看出什么没?

从来没有人教过他这种打法,可能就连你以前也没这么玩过。

但是,玩着玩着,因为有一套底层反馈机制,AlphaGo最后自己建立了一套策略。

这个策略是,它发现打开一个缺口之后,把球弹上去,球在中间不断的弹弹弹……效率是最高的、移动次数是最少的。

第一次看到这个视频的时候,我觉得特别“可怕”,不寒而栗。

AlphaGo 拥有了我们过去认为只有人类才会拥有一种东西,叫做智慧。

之所以人工智能在今天如此强大,是因为它拥有的深度学习能力——基于策略的不断反馈、持续优化。

更可怕的是,它不光比我们会学习,还比我们更勤奋——高效而可怕的勤奋。

04

怎样把这个逻辑运用到人的身上?

其实就是我们经常说的——刻意练习。

刻意练习,不能重复地做过去一直在做的、自动完成的动作。

而是要建立一套反馈体系,帮助我们做到高效而可怕的勤奋。

有一本很著名的书,书名就叫《刻意练习》,可能你也看过。

书里介绍了 3 个建立反馈的方法,特别生动形象。

第一个建立反馈的办法,我们称之为音乐模式。

什么叫音乐模式?

钢琴水平是怎么练出来?我身为一个外行,认为肯定是对着琴谱弹呗。

可琴谱可能早在几百年前就写好了,所以钢琴家们不断练的是什么?

是钢琴的演奏表演的能力,练的是手法、是节奏。

钢琴家们会用录音,发现练习中的错误,然后纠正。

刻意练习中的音乐模式,就是把这一小段琴谱,切割成一个个小段,每个段落循环练习。

还有哪些能力,是用这种方法来训练出来的?

最具代表性的,就是演讲能力。

你必须要能站在台上张口去讲,讲完每一场,结合大家的反馈做出调整优化。

甚至架个摄像机,把你演讲的过程拍下来,然后你一看视频回放,发现——

  • 我的腿为什么一直在颤抖啊……
  • 我的身体怎么一直往后躲啊……
  • 我怎么说了那么多“然后”啊……

这些是平时感觉不到的,就必须通过观察和反馈,不断纠正。

发现了不足怎么办?下次再讲,再录一遍,不断重复这种练习。

我曾经写过一篇文章,是关于我从高中开始学习辩论和演讲的故事,年少的我误打误撞,进入了刻意练习的音乐模式。

一次次,一段段提高能力,你的水平才会真正的提高。

演讲、唱歌、表演……这些技能只有借助音乐模式的反复训练,才会变成你的能力。

第二个建立反馈的方法,叫做国际象棋模式。

简单地说,在这个模式下,能力是可以通过找到对手、学习高手来获得的。

以下棋为例,人类学习下棋,水平提升的快慢,很多时候取决于陪练的水平。

所以,研究高手的棋谱,是棋手们常用的训练方法。

比如辩论这种能力,如果没有对手跟你真刀真枪地战个痛快,可能很难练出来。

再比如说商业,也是当你找到了对手、甚至是宿敌,你才能被激发,真的顿悟。

这就是为什么,很多人经常在说百战归来再读书。

你只有在战争中,才能学会战争。

第三种建立反馈的模式,体育模式。

体育模式需要我们对单项技能反复练习。

比如说游泳,有个运动员非常厉害,叫菲尔普斯。

你想过一个问题没有,菲尔普斯都是世界上游泳最快的人之一了,还有人有资格做他的教练吗?

如果没有的话,那奥运冠军岂不是都没有教练?

但真相是,不论一个运动员多么厉害,旁边都要有个教练。

既然教练的比赛成绩不如运动员,那他们的工作是什么?是基于运动项目的方法论和训练产生的反馈体系,来帮助运动员不断提高。

  • 踢足球时,什么位置的任意球要怎么发?
  • 长跑或短跑时,每个阶段的步子迈多大?
  • 骑自行车时,什么时候站着什么时候趴下?

所有运动项目的背后,都是行之有效的逻辑和方法。

不是去跟游泳最快的人学游泳,而是要在单项上,用专业方法训练自己,借助教练的专业知识和经验给自己反馈,这是体育模式给我们的启发。

最后的话

很多人号称自己有 10 年工作经验,其实,他只是把 1 年的工作经验,重复了 10 次而已……

重复,不带来进步,真正的进步,来自“刻意练习”。

所谓的“刻意练习”,是因为不断反馈、调整,每一次都比上一次有进步。

每个领域最杰出的人,往往是刻意练习时间最久的那个人。

在 AI 时代,很多我们曾引以为傲的能力,被“初生”的人工智能碾压,这也让我们变得愈发焦虑和不安。

但每个时代都不乏“天才”,当下更是如此。

找到你的激情和梦想,拥有百折不回的坚毅,掌握刻意练习的方法……

然后,千万千万记住,还有勤奋、可怕的勤奋,甚至是高效而可怕的勤奋。

这样,你会离目标更近一些。

与你共勉!

 

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值