如何成为某一领域的高手

文/古典;摘自《你的生命有什么可能》

知识、技能与才干组成了能力的三核,那么我们如何才能修炼成高手?

三核中,知识最容易习得。

往前追溯一百多年,知识分子的能力主要是拼记忆力,那个时候书不多且奇贵。清朝末年曾国藩买了一套《二十三史》,花了他一百两纹银,这大概是一个七品官员两年半的俸禄。所以古人盛赞一个人一目十行且过目不忘,牛逼不说,这能省多少钱!

而在今天的信息时代,互联网上的知识简直不花钱(除了电费网费),知识本身变得丰富而廉价起来。如果曾国藩活在现代,他也许就会打"《二十四史》"、"免费下载"等关键词。只要你的搜商不太Low,基本上大部分的知识是廉价甚至免费的。

这个年代,知识的差距转向了能力的较量——搜索能力、好奇心、独立思考能力——谁能在同样的知识海洋中学得更快、更多、更精准,谁就容易获胜。

知识的差距,变成了技能的差距,这也就让修炼转向了第二个层面——技能。当所有技能所需要的知识都能轻易获得的时候,谁先练出来,谁就是胜利者。如果有一天《九阳真经》《九阴真经》《易筋经》都挂到网上了,谁会成为武林霸主?练习最快那个呗。这个时候,知识的竞争升级到技能层面了。

技能与知识的最大差别是,技能是以熟练不熟练为判断的。任何人刚刚接触技能,都是笨拙而滑稽的。虽然26个字母清清楚楚地写在每一个键位上,但是谁也不会一开始就运指如飞。

拐个弯,谈谈中国式英语教学的问题,他们把英语当成一种知识来教——你清晰地知道[θ]如何发音,但是你不一定能顺利发标准。因为语言是技能,而不是知识。知识能学到,而技能只能习得。知识学习是瞬间的,知道与不知道之间几乎瞬间完成。但技能则需要漫长的笨拙期——如果你不接受自己笨拙的开始,你永远也不会学好任何技能。

也正因为这个心智之墙,很多知识优胜者死也不愿走入技能的练习领域。这也是为什么"好学生"往往不如"坏学生"混得好的原因——"混社会"是门技能啊。

而当一门技能被反复地操练,就会进一步内化,成为才干。正如你现在打字不需要看键盘,正如你说话张嘴就来不用考虑发音,正如你骑单车不用想着保持平衡一样,这些技能都因为反复修炼,成为你不知不觉的才干。

而才干一旦学会,可以很迅速地迁移到其他技能领域中去。就好像今天的小孩子学习个新电子产品一定比中年人快,他们与电脑的互动,早就成为才干,又重新迁移到新的知识和技能领域来。高手就是这样炼成的。

无须过脑子就能够直接使用这项技能,他似乎成为你的天生属性之一。一个魔术师在上台前,需要经过大概近3千次的练习,所以当刘谦对着镜头变魔术的时候,他的大脑肯定不会过关于"如何拉动皮筋"这样的事,那些动作完全自动化,他的脑子则在想如何配合当时的机位、镜头、所有人的表情。时间一长,这些技能也变成"镜头感",被储存为才干。他可以发展新的技能了。

《一万小时天才理论》把这个能力的升级过程归功于大脑中的"髓鞘质"——技能线路锻炼得越多,使用得越自如,大脑就越能创造出一种非常有说服力的幻觉:一旦掌握一项技能,就会感到收放自如,仿佛是我们与生俱来的。"这就是知识—技能—才干的形成。

明星有"明星感",老师有"个人魅力",商业决策者有"精准的直觉",一流的运动员有特殊的"节奏",好的员工有天生的"责任心",都不一定是"天赋",而是经过大量技能练习后,才干与天赋交融的体现。

人家是练出来的。才干如此的"自动自发,习焉不察",以至于很多人从来不知道自己的才干——这真的是一种巨大的浪费。

金庸小说《倚天屠龙记》中张无忌向张三丰学太极剑一段,就极大的体现了知识—技能—才干的升级过程。

张无忌大敌当前,要与剑术高手比剑,却不会剑术。张三丰于是当场传他太极剑法,半个时辰后对敌。
……
张无忌缓缓踱了半个圈子,抬起头来,满脸喜色,叫道:"这我可全忘了,忘得干干净净的了。"张三丰道:"不坏,不坏!忘得真快,你这就去迎战八臂神剑罢!"

要知张三丰传给他的乃是" 剑意",而非"剑招",要他将所见到的剑招忘得半点不剩,才能得其神髓,临敌时以意驭剑,千变万化。倘若尚有一两招剑法忘不干净,心有拘囿,剑法便不能纯。

金庸大侠给我们上了一门生涯课,剑招—剑术—剑意对应到职业生涯里来,就是"知识—技能—才干"。这么短的时间里,"如何出剑"的知识和"出得熟练"的技能,显然不可能马上掌握。只有传递"剑意"才能成功。而才干的核心,就是自动自发,无知有能,所以"剑招"忘记得越干净越好。

但是为什么张无忌能够马上领会剑意?显然与他之前已经踏踏实实地按照知识—技能—才干的规律,修习了九阳神功和乾坤大挪移有关。

各门上乘武功,大体才干一致,技能相通,只是知识略有不同。正如当你站到了17楼往下看,你就一定会比楼下的人明白,去某个公交站怎么走。当你在某一个领域做到顶尖,你也很容易就掌握另一个领域的知识和技能。在外人看起来,就是一通百通了。

真正的高手,就是这样炼成的。

关于才干,还有一个重要的事情得交代:

很多人一旦接触了能力三核,会认为才干最重要,于是沉迷于各种自我发觉,希望超车。其实不然——没有了技能和知识的铺垫,才干如空中楼阁,也是没戏。比方说我的才干——好奇、幽默感和求真,只有结合了多年的生涯和写作技能,才干才能外化出职业能力,有了被识别的价值。

在我看来,对于大部分职位,知识和技能就已经足够。而对于刚进公司就要发挥天赋、对公司的发展前景提建议的实习生,我要说,先进去你的盒子,不知天高地厚!知识、技能只需要认真和努力,对于大部分工作,能做到认真努力就可以有80分。不过实际上,以大部分人的努力程度之浅,他们根本没做到80分。

如果你是希望通过找到天赋,从而少付出些努力也能超车——那么你根本没有资格谈天赋。
1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值