单核工作法13:永不拖延(上)

前言

工欲善其事必先利其器。
学习一点儿如何安排时间产出工作量的方法,对于生活也是很有必要的。

目录:

上一篇在这里单核工作法1
原理1原理1
原理23原理23
原理45原理45
单核5:适用性适用性
单核6:颠倒优先级优先级
单核7:全景闹钟全景闹钟
单核8:小结单核8:小结
单核9:消减待办任务消减待办任务
单核10:忙碌谬论忙碌谬论
单核11:现在专注一件事现在专注一件事
单核12:现在专注一件事(下)现在专注一件事(下)

第三章 永不拖延

已经决定了要做什么但是不去做,这不是等于白费工夫吗?我们还总爱做其他无意义的琐事来逃避。出于这样或那样的原因,思想总是还没准备好做我们想要做的事情。拖延把我们置于焦头烂额的境地。
首先要弄明白拖延的本性。造成拖延的潜在原因很多。借助服务生效应的一点帮助,[1] 局面是可以得到扭转的。我们可以让头脑渴望做事,而不是勉强做事。本章提供了自动坚持任务和脑力预算等实用方法。要避免拖延,最主要的问题是如何开
始。既然我们下大力气保护了一段可支配时间,就别把这些时间浪费在其他事情上,而是应该将其用于选定的任务。

一分钟:如何做到永不拖延?

五项基本概念

※ 时间不一致是指人们在评估自己未来的忙碌程度时,会认为近期超忙,远期不那么忙。
研究记录证明,这是人类思维的误区。跳出误区的方法是,现在就做最重要的事,对紧急程
度不作考虑。
※ 可支配时间的浪费意味着,你本来有一段受保护的时间来处理最重要的任务,但却花在
了其他事情上。我们必须确保足够珍视可支配时间的价值。浪费掉的时间不会再回来。
※ 服务生效应让我们知道,未完成的任务更容易被记住。正确利用这个效应有助于停止拖
延;错误使用则会让拖延更严重。可以动用潜意识思维来促使我们完成最重要的任务,而不
是其他任务。
※ 自动坚持任务是服务生效应的延伸。[2] 人类有一种强烈的意愿,想要完成被中断的任
务。[3] 在下午下班前开始一项任务,这会鼓励你自己明天早晨回来继续做这件事。
※ 内在动力比奖励和惩罚的影响更大。自主是为自己的选择负起责任。专精是一种不断渴
求进步的心态。目的可以激发你成为比自己更伟大事物的一部分。

问卷

在开始脑力激荡之前,先找出你在现阶段工作当中经常遇到的“时间杀手”,给它们打钩。

  • 决策被推迟
  • 同事喧闹
  • 星期六总上班
  • 任务缺乏挑战
  • 例行公事
  • 把预估当成承诺
  • 信息不容易找到
  • 责任太大,权力太小
  • 目标模糊
  • 士气低落
  • 面子工程
  • 不敢反对管理层
  • 缺乏 IT 技能
  • 相互矛盾的指令
  • 不敢承担风险
  • 早晨总是缺少灵感
  • 面临截止期限
  • 缺少个人空间
  • 干扰太多,总是分心
  • 三小时的会议中间没有休息

黄瓜和洋蓟在游艇俱乐部相遇

黄瓜:今天上班顺利吗?
洋蓟:挺好的。中午吃了美味的意面;下午茶歇时,同事乔西跟我讲了一个特传奇的故事,
讲他是怎么开始练习武术的。
黄瓜:你完成了什么任务没有?
洋蓟:很遗憾,没有。我负责的这个工程吧,是超级郁闷的那种。要干的事儿特大,我都不
知道从哪里开始。客户又爱耍脾气,不管我拿出什么来,都可能挨批。我一开始就不想掺和
进来。都是老板逼的**。
黄瓜:所以你并没开始工作,就只是悠长的午餐加悠长的茶歇?
洋蓟:谁规定不让吃饭喝茶了么……
黄瓜:让啊!这些是很好的时机,可以让大脑重新充电,产生新的创意。问题好像应该是,
除了吃饭喝茶,你在其他的时间都干什么了?
洋蓟:确实。我知道要做什么,但还是没去做。我有拖延症。
黄瓜:拖延不等于没救。这个工程有好处也有坏处,你先接受它,然后试着朝好的方向努
力。
洋蓟:你知道吗?乔西今天跟我讲他们武术团的信条,有一句是“我不能阻止风吹,但我能
调整帆,驶向我要的方向”。
黄瓜:很有道理,这就是我想说的意思。
洋蓟:明天我要把工程拆分开,形成逐步渐进的计划,然后专注于一个最小化可行思路。我
的脑子里现在已经有一些想法了。

时间不一致

你在一个月前接下了一项重要任务,内容是调查如何更好地控制公司成本,那时候看上去有
大把时间。现在一个月过去了,明天就要开董事会议,汇报你调查的成果——可是你还什么
都没做呢。
时间不一致是指我们在评估自己未来的忙碌程度时,会认为近期超忙,远期不那么忙。研究
显示,人们会预期未来有更宽裕的时间,而不是现在。截止期限越远,觉得越容易达成目
标。
艾森豪威尔说,紧急的任务不重要,重要的任务从来不紧急。参照紧急程度排列优先级的
人,经常会忘了重要任务。那些在假期第一天就做家庭作业而不是留到最后一晚的学生,总
是会考出更好的成绩。
你可能觉得,其中的窍门是要多说一些“不”,但事情没那么简单。很多任务在提出的时候看
上去很重要,仅仅考虑“做 / 不做”那种非黑即白的回答是不对的,必须要让这项任务的利益
关系人了解我们的优先级排序。有足够的理由让我们把这件事接下来吗?
别漏掉事情,但坚持按照自己的优先级来工作。频繁而无情的除草行动,让我们更加容易预
测自己未来的表现。另外还可以把任务拆分;定期交付可用的中间结果,由此可以看出你能
不能完成整个任务。

心流和拖延

拖延是充分认识到了应该做任务 A,但是却逃去做任务 B,不碰任务 A;心流则是深深沉浸
于所专注的任务。 这么说,一个是坏人,一个是好人啦?差不多,但不完全是。
造成拖延的原因多种多样。别人想让我做这件事,但是对我有什么好处?这个任务太庞大,
我应该从哪里开始?我担心结果不够好,所以就不交付。我太累了,需要休息。我的事太
多,分身乏术。
应该把“拖延”与“花时间考虑”区别开。 在面对一宗棘手的难题时,先花一两天消化问题、
酝酿思考,可能会找到更好的解决方案。有些时候,仅仅 5 分钟的休息就可以带来新点子。
在处理正确的任务时,心流是极好的。但有些事可能刚刚还是应该做的,现在就不是了。情
况改变后还在错误的任务上投入心流是徒劳无功的。这就是为什么必须至少每小时切换到全
景模式一次,评估你的优先级。
想让拖延变为心流,要解决的最大障碍是“含糊不清”。不明确的优先级排序,不明确的任务
目的,不明确的预期指标,不明确的反馈渠道——这些障碍都可以通过单核工作法去除。

可支配时间的浪费

我的客户柯孝在一家成功的创业公司任 CEO。他说他的困难是不想开始。即使待办清单上
写着重要任务,他还是会打开社交网站、看看天气预报、玩玩电脑游戏。
你的一部分上班时间安排了会议,其他则是可支配时间,是完全可以自己管理自己的时
间,通常也是用于处理顶级优先任务的时间。相对于不可支配时间,可支配时间更容易浪费
掉。
在出席会议的时候,无论多么心不在焉,你总能听进一些发言的内容。在讨论时还能多多少
少贡献点意见。但换成自己干活,该做的事情你有可能一点都没做。
柯孝和我聊起如何看待可支配时间的价值。他害怕把太多时间花在会议上。虽然知道可支配
时间非常宝贵,但他还是浪费了。解决柯孝问题的是两个概念:“无内疚时间”和“时间盒
子”。
柯孝选出最重要的任务,设置闹钟到分针的下一个竖直位置。他总算开始专注于这项任务,
而不是坐等解决方案自己出现了。这样到闹钟响铃的时候,他就可以有一段无内疚时间,愿
意用来做什么都行。

拖延的征兆

有时我们明明计划好要做一项任务,但还是不去动手。这里列出拖延的一些典型征兆。识别
这些征兆,便于我们知道何时采取行动。
※ 知道要挨批评:干脆什么都不做,就不会受到批评。
※ 事情超出控制:想拖延的话,可以找出很多责怪的理由。
※ 拒绝承担责任:反正其他人可以做。
※ 分心干扰:一些鸡毛蒜皮的事让我们在忙碌中拖延。
※ 情非得已:别人强加的任务,正好是反抗和懒惰的借口。
※ 事不关己:这种态度可能也是为了逃避和拖延。
※ 没有动力:是一个刻意选择的事实,用来劝自己不要开始。
※ 初学乍练:没做过这种任务,漫无方向,更不敢开始做。
※ 过度规划:总觉得掌握的信息还不够多,所以无法开始。
※ 被动遗忘:让思维游荡,把任务忘掉,是一种拖延策略。
※ 贬低价值:认为这事儿没什么大不了,结果导致拖延。
※ 技能不足:这是个经常被夸大的事实,用来当作拖延的理由。
※ 利益关系人不在:既然没人等结果,我们就可以不做。
※ 成功恐惧症:担心表现得称职,以后压力会越来越大。
一言以蔽之,就是各种害怕。要战胜恐惧心理,一个好办法是把自己暴露在害怕的事物面
前。在你讨厌的任务上,寻求小小的下一步行动。我能保证,一旦开始做这件事,你就会感
觉好多了。

服务生效应

布鲁玛 · 蔡加尼克发现,服务生对未付款的账单记得更清楚。[9] 大量实验证明,服务生效应
确实存在。[10] 正确利用这个效应有助于停止拖延,还能启动强大的背景思考之力来解决问
题。那么要怎么做呢?
如果开始了一项任务,大脑认知访问相关信息的能力会增强。下班时,用一张纸条写下明天
要开始做的事情。这会有效地让大脑开始为明天做准备。
我们的潜意识跟未完成的任务有仇,它会不断骚扰意识思维,提醒要把事情做完。有迹象表
明,未完成的任务越重要,我们就记得越牢。[11]
在某种程度上,任务只要在快捷清单里出现,就会被当作“已经开始但没完成”的事。这就是
要限制快捷清单上的任务量为最多 5 项的原因。永远不要在今天的待办清单里放置多于 5 项
任务,这样可以避免很多因为自己而中断工作的情况。
电视连续剧里的悬疑桥段就是有意利用了服务生效应。本页第一段也许会让你产生好奇,想
要把整篇文章读完。要克服自己的拖延,只需要开始一项任务,大脑就会鼓励你把它完成。

艾维 · 李方法

“给我支个招吧,怎么完成更多事情?”查尔斯 · 施瓦布向艾维 · 李问道。施瓦布是伯利恒钢
铁公司的总裁,他一直在寻找能提高生产力的方法。“管用的话,我会支付合理的价钱。”
大名鼎鼎的管理顾问艾维 · 李给了他一张白纸,说:“写下你明天必须做的事情,然后按照
实际重要程度给它们标上数字。明天早晨第一件事就是,开始做编号为 1 的工作。”
类似你我的知识工人需要花力气解决复杂的问题。每一个新问题都有其独特的挑战,因此更
需要简单、通用的规则来指导自己。艾维 · 李的方法用起来超级简单,鼓励采取单核的工作
方式。
这个方法还强迫我们对优先级做出决定:真正重要的是什么?不作决定,就有可能落入急事
的陷阱,明天一上班就被突如其来的琐事绊住。
几星期后,艾维 · 李收到了一张 25 000 美元的支票——在当时是很大一笔钱。施瓦布后来
说,艾维 · 李方法是他在整个职业生涯中学到的最有价值的方法。好吧,他可能没听说过玛
丽亚 · 奥西安吉娜的发现。

笔记

做事情的方法很简单,那就是直接开始做,但也非常困难,因为无从下手,灵活的使用纸和笔非常重要,实现自己的目标还是需要依靠自己的努力,比如,每天晚上安排明天的任务。

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值