《拖延心理学》序言

写书的人往往被认为对他们的写作倾向有着非常深入的了解。确实, 我们对拖延心理的了解可以说是彻头彻尾的:我们两个都知道对方的那 些丑事,我们都经历过许多通宵开夜车的日子,也曾为写博士论文而挣 扎了多年,经常要缴纳税收滞纳金,并常常为自己的拖延而编造种种故 事情节(最为极端的例子是说自己家里死了人)。

除了我们两个人对此的个人亲身经验之外,我们也有多年与拖延心 理打交道的职业经历。当我们还是加利福尼亚大学伯克利分校的咨询中 心成员的时候,我们从1979年开始就为学生拖延者创设了据我们所知的 第一个团体治疗课程。在我们的拖延者团体中,我们看到一些拖延的模 式和倾向一再地呈现出来。虽然每个人的情况不同,但是其中还是有很 多引人注目的共性。举个例子来说,我们原计划在周一上午九点开始我 们一周的团体治疗课程,结果我们发现这根本不现实一在十点之前没 有一个人出现在现场!

当我们向公众开设拖延工作坊的时候,我们再次遭遇到了这个拖延 怪兽。我们差点提前一周取消我们的第一个工作坊,因为在预订的时间 内没有几个人报名。结果,几乎2/3的人是在截止时间的最后一分钟报 了名,我们不得不搬到一个更大的房间里才能容纳下这么多的人。

30年来,我们在心理治疗和心理分析的私人诊所内也处理了很多个 案,很多人因为常年拖延而积重难返,这让我们有机会在更深的层次上 探索这个问题。我们感到幸运的是,患者们都勇于向我们敞开心扉,这使我们的研究工作从中受益良多。

所有这些经验都再次坚定了我们的想法:拖延从根本上来说并不是 一个时间管理方面的问题,也不是一个道德问题,而是一个复杂的心理问题。根本而言,拖延的问题是一个人跟自身如何相处的问题,它反映 的是一个人在自尊上的问题。在我们的第一本书里,我们将它看做是一 个人自我价值感方面的问题。我们强调,自我价值感是以一种自我接受 的能力为基础的,其中包括接受我们的生理状况,接受我们的历史,接 受我们的环境,以及接受我们作为人的诸多局限性。

那么,为什么在25年之后我们决定修订这本书呢?我们想将拖延问 题放在当今文化的背景下加以考察,并在对拖延的原有认知上增补一些 新的视角。除了对这个问题更深人的心理学认识之外,我们还有来自其 他领域的一些资讯,比如神经科学和行为经济学,这些都有助于更好地 理解拖延问题。

25年前,对拖延的研究几乎是空白,但是现在已经有很多研究找到 了拖延形成的原因。2007年,卡尔加里大学(Univeraity of Calgary)的心 理学家皮尔斯•斯蒂尔(Piere Steel)发表了一篇评论,对将近800项拖 延研究成果进行了总结,其中包括我们在1983年出版的书,在他的评论 中这本书是最早被提到的研究成果之一。斯蒂尔最终找出了四个拖延最 可能的成因——对成功信心不足,讨厌被人委派任务,注意力分散和易 冲动,目标和酬劳太过遥远。我们很髙兴地看到这些研究和发现有力地 支持了我们的临床观察和总结,但是我们同时也认为还有很多其他东西 被这一类研究所忽视了。

自从本书第一版面世以来,这个世界已经发生了巨大的变化。在20 世纪80年代早期,大众根本无缘接触到互联网,那时候个人电脑也没有 普及。我们写作的时候是用铅笔写在本子上,然后将我们的手稿在IBM 的电动打字机上打印出来,我们俩人还要见面交换各自写的章节。为了 将我们的稿子隔天就交到出版商那里,我们经常不得不在下午六点之前 冲到联邦快递那里(如果我们错过了这个时间,我们还有一个选择就是 在八点乏前直接送到机场)。如今,电脑已经成了我们的纸和笔,同时也 成了我们的图书馆和邮件递送者。

在那个时候,没有黑莓(国外一种以收发电子邮件为特色的手机), 没有PDA (掌上电脑),没有手机,更没有苹果手机(iPhone)。技术进步现在可以让我们每周工作7天,每天工作24小时,但是它也会引诱我 们每周7天、每天24小时地拖延着时间!不管你身处何时何地,也不管你是在工作还是在家里,我们都可以在网络冲浪中数小时地迷失自 己一阅读新闻,不停地搜索,摆弄博客,观看比赛,沉迷于虚拟的度 假和色情之中。在网络上总有适合你的东西。

事实上,网络越来越成了人们不愿意做事的罪魁祸首,这种趋势正 在不断地蔓延。如今,信息已经是铺天盖地、无所不在。过多的信息让 我们无所适从。太多的信息,太多的决定,太多的选择一信息的泛滥 让我们很多人陷入了拖延的泥沼之中。

在我们写书的今天,我们看到拖延比我们曾经设想的要更为复 杂一它不仅仅是个人心理、行为和情绪上的问题,它还涉及了社会、 文化及技术走向,生物和神经取向,以及全体人种的去向。因此,我们 将以更为慎重的态度来对待拖延的全部复杂性。

在写作这本书的时候,就像在25年前一样,我们相信,要让拖延之 手从你的生活中松开,既需要理解其运作原理,还需要找到应对措施, 采取相应的行动。你或许意识到了拖延是怎样耽误了你,但是我们觉得, 你或许并不了解拖延为你带来了怎样的潜在好处,所以,直到你看清楚 拖延是如何服务于你的之前,就像做其他事情一样,你还是会一再推迟 实践我们为你介绍的应对技巧。如果你没有理解自己为什么要拖延,所 有这些实用的技巧对你都不会有什么帮助。同样地,在你看穿了自己的 老底,完全地理解了自己拖延成因的情况下,如果你不付诸行动,你依 然不会有所进步。(阅读应对拖延的技巧或许是很有趣的一件事,但是阅 读不能代替行动。)所以,找到怎样采取行动的好办法是至关重要的。

在这本书的第一部分中,我们对产生拖延的形形色色的根源进行了 追溯;在第二部分中,我们给出了一些帮助你采取行动的建议。我们的 目标并不是消除拖延。很多时候对一些事情弃之不理反而对你最为有利; 相反,我们希望这本书能够让你更加接受自己,由你自己来掌握取舍和 得失。我们希望我们的读者对自己的人性抱着宽容乐观的态度,接受自 己的优点和弱点,能够与自己像老朋友一样和谐相处,通过这样的心态 来减缓拖延的惯性。我们并不建议你放弃雄心壮志和对卓越的追求,也 不是劝说你逃避全新的挑战。但是在我们将梦想付诸行动的时候,伴随 着内心冲突而来的,像恐惧、羞耻、担忧以及自我憎恶这样的情绪都是我们应该摒弃的。

我们不再像以往那样拖延。虽然莱诺拉每年还是要申请传真分机, 但是这不过是一件计划中的事情,不是什么心理恐慌的匆忙之举。虽然 简花了五个月的时间才将她的掌上电脑拿出包装盒,但是她现在在面对 大部分事务的时候都做到了及早处理。还有,虽然我们的第一本书的完 成比出版商给我们的最后期限超出了两年时间,但是这一次我们只需要 四周的延缓时间!我们能够证明改变是可能的,虽然我们也知道这并不 合易。

在这本书中,我们希望陪伴你面对拖延的挑战,学会接受,学会行 动,让自己的心理更为成熟。我们曾经就是这样陪伴着很多人穿越了他 们的拖延心理。出于保密的考虑,我们将所有人的姓名以及一些相关信 息都做了改头换面;我们在书中所描述到的拖延者往往是我们所了解的 几个人的一个综合体。我们希望,你在分享他们故事的同时,能够更好 地理解你自己的处境。正是在对你自己生活处境的审视中,你才能发现 你的拖延存在的真实背景。我们相信这一点是相当关键的,因为,当我 们按照自己真实的样子而不是按照自己希望的样子来接受自己的时候, 我们才能以最有利于我们的方式来采取行动,而不是生活在拖延的无边 阴影之下。

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值