《老喻的人生算法课》之A计划笔记(二)

本文发于微信公众帐号:  
一界码农(The_hard_the_luckier)   
无需授权即可转载;
甚至无需保留以上版权声明…

接着上篇来加深对人生算法A计划的九段位理解。

初段-闭环:如何对抗完美主义

反思自己之所以有拖延症,大部分来自于完美主义,从我小时候下象棋便知。要对抗完美主义并不难,就是开始行动,正所谓“先完成再完美”。要达到完美,就要行动、反馈、检验和总结,而老喻告诉我们要形成认知闭环:行动->执行->检查->处理

通俗地说,闭环就是把一件事儿做完。我们平时夸一个人靠谱,也就是说他能够做到“凡事有交代,件件有着落,事事有回音”。

可是我们总感觉身边靠谱的人少之又少,遇到一个就会珍惜一个,为什么做一个靠谱的人这么难,无论工作上还是生活中。这里老喻分析并给出了四种情况。

第一种情况是:事情本身难以形成闭环。

做事没有想明白事情怎么做就冒然去做,常常就是无疾而终半途而废;另外思考一件事情是个人可以完成还是需要团队分工协作完成。

第二种情况是:个人或者企业的能力难以形成闭环。

烧烤摊的老板比名企高管更容易创业成功,原因在于地摊老板从场地、原材料、生成、销售都要亲手完成具备靠谱闭环,而高管们只是名企的螺丝钉,隶属公司大系统中的一个环节。

第三种情况是:不愿意把手弄脏。

要接地气,不要天天喊口号画大饼。纸上谈兵人人都喜欢,可下地干活并不愿意的人很多。

第四种情况是:坚持完美主义。

完美主义通常的做法是,把每种路线都尝试一遍,非要找出最优解来。这样有着积极一面,要求高质量。但是大多时候,完美主义会造成拖拉,阻碍了闭环的完成。而且操作成本太高,现实生活中最优解很难短时间找到。

二段-切换:掌控大脑的两种模式

人的大脑有两种模式:自动驾驶模式和主动控制模式。在生物学上则是非条件反射和条件反射系统。所以,一些科学家认为,人的大脑里,同时并行着两套系统,一个是快速、自动并且无意识的;另一个是缓慢、刻意和深思熟虑的。

要理解这两套系统其实很容易,比如开车的老司机和新手,对应着则是自动驾驶模式和主动控制模式;新手需要调用经验、记忆、分析和总结,一步步形成脑回路才会成长为老司机。

所以,高手把一件事做好的秘密就是,最开始交由“主动控制系统”来管理、训练,达到一定熟练程度,就由“自动驾驶系统”来接管。

我们如何才能打造在两种模式之间自如切换的能力呢?

攻略一,把不那么重要的事情交给“自动驾驶系统”。

在不那么重要的事情上,减少作决策的次数,不去想吃什么、穿什么,把精力集中运用到重要的决策中。

攻略二,在使用“自动驾驶系统”后,积极用“主动控制系统”复盘。

有时候,人们将自己熟练的事情交给自动驾驶系统后,这件事可能会被忽视,你也不再进步。你就可以用复盘自我审视,不仅可以给自动驾驶系统做体检,还能提升其性能。

攻略三,在大脑中用“主动控制系统”去模拟“自动驾驶系统”。

例如高尔夫天才临近比赛就会开车到比赛现场,在那里练上几轮,等到回家之后,伍兹躺在床上,闭着眼睛。他说这是在脑袋里练习,那些比赛中需要的击球。这种精神备战法,被称为心理演练。

三段-内控:跑好大脑的四人接力赛

一次完整地认知行为,实际上是由4个最为关键的控制点组成的。

控制点1,感知:在感知环节,你像个情报员,获取外部信息,所以你需要很敏感;
控制点2,认知:在认知环节,你像个分析师,你需要特别理性,考虑各种变量,并且给予公平的估值;
控制点3,决策:在决策环节,你像个指挥官,你必须根据分析师的评估计算,作出一个决定,而且这个决定必然是有取舍的,你需要十分果断;
控制点4,行动:在行动环节,你像个战士,需要不畏艰险,勇往直前,执行任务。

16字方针: 好奇感知、灰度认知、黑白决策、疯子行动 。
一个完整的认知行为,就像一场4乘100米的接力赛,是由4个人共同来完成的,他们分别叫感知、认知、决策和行动。感知环节,像个情报员,敏感地获取外部信息;认知环节,像个分析师,理性评估;决策环节,像个指挥官,果断取舍;行动环节,像个战士,勇往直前。

未完待续,敬请期待《老喻的人生算法课》之A计划4-6段。

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值