记录方法用时_在信息时代记录笔记的一种思想

90ff5762f9d6d38902325f77f9dc74c2.png

在信息时代,快节奏、紧促的生活已成为常态。如何有效的利用时间,用最合理的方法记录读书笔记,使其发挥最大的作用,是我一直以来想要探索的问题。

为了找到答案,我先后阅读了三本有关阅读技巧的书,分别是: 《如何阅读一本书》莫提默·艾德勒 查尔斯·范多伦 《如何高效阅读》彼得·孔普 * 《如何有效阅读一本书》奥也宣之 本文将要介绍的,就是建立在这三本书的基础之上,并结合了我在长期探索笔记记录和GTD方法的感悟,而得出的一种笔记思想。

1. 背景

21世纪是信息时代,快节奏和突发性是其时代特点。在这样的背景下,至少在国内IT领域,想要真正意义上去贯彻Work-Life Balance已经是十分困难了。

在这样的背景下,如果能坚持每天抽出半小时,甚至每周仅周末抽出几小时静下心来认真阅读,那就更加难能可贵了。

而且众所周知,读书与读书笔记,如同形影不离的一对兄弟,为了最大化阅读的作用就不得不提。所以我们要讨论的问题便是,在时间紧迫的阅读之外,怎样记录读书笔记,才能够发挥其最大的作用,又不至于占用(浪费)过多的时间?

2. 按用时长短划分笔记

笔记有多种记录方法,例如:康奈尔笔记法、提纲笔记法、导图笔记法、子弹笔记法等等。他们都是记录笔记的形式。

如果按记录笔记使用的时间长短去划分,那么可以分类如下: 用时短:总体的记录量并不大,不含具体的细节,但是高度总结概括。正因为不记录细节,所以能够记得很快,不占用过多时间。 用时长:类似于从原书中提炼出一本知识点手册,涵盖了所有的知识点。一定意义上是原书的另一种排版。

这里的用时长短划分并不严格,但相对而言,后者的用时一定远大于前者。

无论是用时长还是短的笔记方法,记录者的评价、补充、思考都是十分重要的内容。这也是无论用什么笔记方法都不能缺失的内容。

从接受九年义务教育,到高考进入本科研究生,我们在哪里都能看到不同领域的人晒出的精美的知识点手册,这些重新排版过的“原课本”。我们十分惊讶,赞叹记录人的耐心与分享。

不过,这种重新编排原书的笔记方法,并不具有普适性。无论是记录什么笔记,我都不建议大家采用这样的方法。

3. 详细的笔记真的有必要吗?

首要,我们还是要肯定,详细编排并记录所有的要点,的确是吃透原书的一种好方法。但是我们同时也要注意,这样的方法需要花费数倍于阅读原书的时间。而且最为重要的问题是,我们要明白这样做的目的在哪里。

3.1 学霸的笔记与学霸的计划表

详细的记录有没有用处?我们先来看看陪伴我们学习生涯的学霸的看法。

实际上,真正的学霸很少做笔记(据我在高中以及大学的观察,的确如此,尤其是上课的时候),他们顶多画一个知识框图而已。

因为学霸们很清楚:记笔记的目的是给自己温习,不是用来练字、欣赏、借给同学抄(分享)。上课不记笔记,大多内容专心听就能直接理解;如果认真记笔记,反而要耗费理解知识的时间在写字上,课后还要用数倍时间补回来。

并且,记笔记容易让人遗漏重要的内容(记总没听的快),还容易让人沉浸在舒适区,降低紧迫感、无法专心。更为重要的是,如果课程简单,记笔记就错失了一遍理解的机会;如果课程很难,记了笔记也没什么大用。

关于学霸的计划表,那就更是一个误区了。也许很多人听过清华学霸姐妹花马冬晗、马冬昕的故事,但是这种事情也就听听就好了。因为过于高密度的时间安排,会极大增加个人负荷,至少对于80%的人群,是根本不适用的。

学霸之所以强,并不在于精密的时间规划安排、也不是高效的休息技巧、更不是劳逸结合,而是专注力

学霸的学习时间并不会很长,他们最大的特点时效率极高,而一切高效的学习,是以极高的专注力为基础的。一般人之所以不如学霸,也是在专注力的问题上,无法做到学习时的持续性高度专注。

所以,可见大部分的学霸,根本不需要去详细的记录什么,他们需要的是专注力和理解力,以及顶多额外的一份——提纲。

3.2 对抗遗忘曲线

读书笔记一定程度上是为了对抗遗忘曲线,这是值得肯定的结论。

在实际的场景中,我们使用读书笔记来对抗遗忘曲线,并不是为了把这本书重头到尾再读一遍,而是为了用最快的速度温习这本书的主要内容。这时候,即便内容详细的笔记起到了作用,很多人也不会去从头到尾把这本“原书的另一份排版”再读一遍的,这并不现实。所以从实用性角度来说,笔记记得太过详细,是一件性价比不高的事情。因为你可能浪费了大量时间,做了一本自己一两年或者更长时间(甚至再也不会)翻开看一眼的东西

3.3 如果一定要说益处

如果你有充足的时间,这种详细的笔记绝对是有效的、有益的,甚至可以分享出来,让更多的人受益。但前提是你真的有很多时间,并且能坚持做完它。

4. 如何读书

值得明确的是,并不是所有的材料都要用同样的方式去阅读。对于不同的阅读材料,应当使用不同的阅读速度,带着不同的阅读目的去阅读

4.1 阅读的层次

阅读的层次可分为:基础阅读、检视阅读、分析阅读、主题阅读四个层次。

  • 基础阅读相当于认字阶段,我们基本天然具备。
  • 检视阅读应该是正式读书前的必备工作,但是它的作用往往被人们忽略了。
  • 分析阅读主题阅读大多伴随着自己的感悟、思想、辨证评判而产生。

值得注意的是,并不是所有阅读材料都需要进行分析阅读和主题阅读。对大多数读物而言,仅仅进行一次检视阅读就能达到阅读效果了。

检视阅读:阅读书名、序言、目录等内容,并随意快速的进行翻阅,以快速判断出这本书的分类、难易以及主要内容。

4.2 阅读的速度

读书太快或太慢,都一无所获。即便目前有着大量的速度课程,但是一个真正好的速读课程应该是教你用不同的阅读速度去阅读,而不是一味求快,忽略了你目前能掌握的程度

所以,在阅读一本书时,慢不应该慢到不值得,快也不应该快到有损于满足和理解

4.3 阅读的目的

在读一本书前,一定要清楚的知道,这本书有价值吗?我为什么要读这本书?我想从这本书中获得什么信息?读书应当具有目的性,目的越具体越好,这会让读书更加高效。

不要指望一遍阅读就能从书本中获取所有的知识,即便为了完成阅读的目的,往往也需要进行多次阅读

也不要想着能够获取到书中的所有内容,实际上写书的作者也不希望你可以找出书本中的所有知识点。

5. 如何做读书笔记

5.1 读书时笔记

书中的重点是散落在书页之间的,为了后续能够更好的进行提纲,或者便于重读时快速抓住要点,对书中的重点进行勾画是很有必要的。

勾画也是有技巧的,最大的忌讳就是过度勾画,画的满页都是荧光笔的痕迹。所以,勾画的内容应该是重点中的重点,应该是最最值得勾画的内容,要讲究“少而精”

这个过程可能需要不止一次的阅读。

5.2 提纲/导图

我们应当意识到一点,读书笔记一定是浓缩或者摘要,永远无法覆盖或者代替原书的所有内容,也永远无法取代原书

最有效的浓缩方式,莫过于列提纲和思维导图了,这是最直观概括内容的方法。建议分章节进行记录,同时注意篇幅不要太大,分支不要太多太杂,只要能够直观了解到这一章内容讲了什么就可以了。

书的目录就是一个很好的提纲范本

5.3 其他内容

时效性是一个容易忽视的问题,实际上大部分书刚印出来就已经过时了,所以,将时效性记录到读书笔记中,可以让你更加辩证的看待书中的内容。

阅读过后的评价和感悟也是很重要的,没有书评的读书笔记是没有灵魂的。自己写书评是进行分析阅读、主题阅读、辩证评价一本书的必要过程。

6. 一种在信息时代记录笔记的思想

  1. 首先进行检视阅读,明确读书的目的。并将读书目的记录在读书笔记中。
  2. 阅读时,记得勾画最重点内容,同时利用大纲、导图列清每一章的内容。这个过程可能要求不只一遍的阅读。同时每读完一章要进行本章的主旨总结
  3. 读完一本书后,总结本书的主旨,同时记录时效性,和自己书评(包括本书的优点、不足、作者的观点、是否达到阅读目的、以及分析阅读和主题阅读形式的评价等)。
对于某些读物,例如消遣性质的读物,每章节的总结不是必要的,但是最后的书评是一定不能省略的。

读书笔记结构:

  • 阅读目的
  • 时效性说明
  • 原书主旨
  • 个人感悟(书评)
  • (可选)分章节的大纲导图及章节主旨
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值