书籍推荐《4点起床》舒适而高效的作息方式


 

本文结构

    - REM睡眠

    - 睡眠周期

    - 按照睡眠周期来休息

    - “3-8”作息

    - 为什么要早起

    - 早起能做什么

    - 找不到自己早起想做的事?

本文共计:2037字2图

预计阅读时间:4min18s

REM 睡眠

**REM : rapid eye movement**[1]:快速眼动睡眠,是人睡眠周期的一个阶段。

REM快速眼动睡眠睡眠阶段中,身体肌肉放松,紧闭的眼皮下眼球在来回运动,这个阶段是联系'清醒状态'和'意识体温低下的睡眠状态'的桥梁,为人们“睡醒”做了准备。

Non-REMNREM非快速眼动睡眠,这个阶段是大脑休息的时间,也就是深度睡眠阶段,这个阶段是睡眠中最重要的阶段,也是睡眠效率最高的阶段。

睡眠周期

通常一个成年人的睡眠是这样的:

  • NREMREM交替出现,交替一次称为一个睡眠周期

  • 两种循环往复,每夜通常有 4~5个睡眠周期,每个周期90~110分钟。

国际睡眠医学将一个睡眠周期分为五个阶段:

  • 入睡期

  • 浅睡期

  • 熟睡期

  • 深睡期

  • 快速眼动期:

REM

上图是对一个睡眠周期的近似描述,W是Wake清醒状态,RREMN代表NREM非快速眼动睡眠,N3代表最深度的睡眠。

由图中可以看出,一个90分钟的睡眠周期中,深度睡眠大约占到了整个睡眠周期的一半以上。

依照睡眠周期来休息

我们在深睡阶段是轻易叫不醒的,如果在深睡阶段被吵醒,身体和大脑从深度睡眠中被突然拉出,通常会使身体和大脑产生不适,即使睡眠时间总和很长,也会有没睡好的感觉。

相反,如果在浅睡眠阶段,清晨的阳光照射、晨起的鸟叫都能轻易的把我们从快速眼动期唤醒,由于大脑已经经历过处在睡眠周期中间的深度睡眠,得到了休息,这个时候的清醒,身体和大脑都会感到舒适

因此,按照睡眠周期的模式来休息至关重要。

当然,每个人的睡眠周期不可能都是严格的90分钟,因此也要掌握好自己的身体规律。

比如你入睡后一段时候,开始翻身或者容易被吵醒,这个时候很大概率就是你处在睡眠周期末尾快速眼动阶段

掌握自己身体的睡眠周期,同时让自己处于可以自然醒的环境,例如靠近窗边睡眠,让大自然的声音光线带着身体自然醒,就可以得到最舒适高效的睡眠。

高效的睡眠也就意味着可以在拥有舒适睡眠的同时,缩短睡眠时间,可利用的时间也就增多了,这就是书中作者所提倡的观点。

3-8作息

前面睡眠周期介绍了如何利用缩短睡眠时间,来提升可利用时间,而3-8作息法要介绍的,是在相同睡眠时间的情况下,如何提升可利用时间的效率

答案就是早起

3-8作息法是指:将一天时间分为3块,上午8小时,下午8小时,晚上8小时。也就是4点起床,下午8点休息。

为什么要早起

其实3-8模式,强调的起早,是让晚上的时间去置换早上的时间。

那么为什么要早起呢,书中用大量的篇幅介绍了早起的好处。

例如,从生理学的角度来说,人的身体会分泌两种令人“精力充沛”的荷尔蒙,肾上腺素、肾上腺皮质类脂醇,这两种荷尔蒙在早上分泌的量比晚上分泌的多,大概是3倍左右,因此早上大脑的效率比晚上的高,早上的大脑更加清醒,经历更加旺盛。

另一方面,日出而作,日落而息是人类进化几千年形成的习惯,只是到了现代,人们在夜里可以做的事情越来越多,加班的情况也越来越多,很多人的睡眠时间越来越晚,甚至有些自由工作制的公司里,很多人都是11-12的作息方式,在正午起床,在月影朦胧时才睡去,这是违背大自然和人体规律的。

当你利用睡眠周期规律,养成早睡早起的习惯后,会发现一些美妙的事情,比深夜的手机、视频、夜宵、电脑、小说更加精彩,比如:

  • 光线、鸟叫带来的自然醒的舒适

  • 清晨你所在城市的样貌,和形形色色早起的人

  • 适宜的晨间光照,和空气中适宜的湿度

  • 在空空荡荡的地铁上安然看书的舒适

  • ...

早起能做什么

之前发朋友圈晒了一张等首发地铁的图片,有朋友问,“起那么早干什么?”

起那么早干什么?

其实,一切你想做的事情,都可以放在早上完成(除了看星星看月亮这种)。

书中举了很多例子,比如

  • 悠闲的享受早餐

  • 散步、运动(运动有助于缓解压力)

  • 冲热水澡

  • 晨间社交

  • 看书学习

  • 发展副业

  • 发展兴趣爱好,做内因驱动的事情

  • ...

找不到自己早起想做的事?

书中还有一个观点令我印象深刻,如果你找不到自己想做的事情呢?

就不需要早起,或者陷入迷茫吗?

我把作者的答案摘录在这里,希望对找不到追求的人,能有所启发:

我究竟想做什么呢?

当然,我们可以埋头苦干,让自己没时间胡思乱想。但我建议大家多去受点刺激。学习、信息、人......这些都是刺激。接受的刺激越多,自然会产生这样那样的憧憬:“我想成为那样的人!”“我想做那样的工作!” 有些人能找到明确的目标,有些人则会发现目标的模糊轮廓。

无论你属于上述哪种情况,都能在不断接受刺激(我把它称为“打击”)的过程中,逐渐将自己的目标具象化,这才是重中之重。

 

参考资料

 

[1]

REM : rapid eye movement: https://zh.wikipedia.org/wiki/%E5%BF%AB%E9%80%9F%E5%8B%95%E7%9C%BC%E6%9C%9F

- END -

 
 

   其他文章   

  【认知分享】行为决策学入门书籍推荐《别做正常的傻瓜》

【认知分享】如何高效舒适的成长——《刻意学习》读书输出

【认知分享】为什么马云能成功而你不能

【效率工具】 Notion为什么能让我放弃手账

【认知分享】无痛提升英语的方法

【学习方法】如何学习源码 | 如何高效学习一个新知识

   我的博客   

www.scarsu.com

“人的一生也许都在自我探索”

点个“在看”鼓励我吧????

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值