《暗时间》读书笔记1-阅读看书

一、 阅读看书

Brant在最近半年,急于提高自己,阅读了很多的书。为了能尽可能多的阅读,那段时间我的课余时间都在阅读,但随着我不断的阅读,我发现我想阅读的书越来越多。因此在亚马逊上看到还不错的书,就买下来或者放在心愿单里,至今我的kindle上还有一百多本没有阅读的电子书,心愿单里也近一百本。为了更快的阅读速度,阅读更多的书籍,我接触到了速读,也接触到了一些3000字/分甚至10000字/分的大神。我买了练习速读的软件,开始苦练速读。为了早日练成速读’神功’,把大部分时间都用在了练习速读上,也暂时停止了读书。这个过程大概持续了两个月,后来也因为暂时其他事情,暂时停止练习了。我的速读速度小幅度提高,没什么质的变化。因为这段时间停止了阅读,我也有时间去反思和思考了,我也逐渐发现了我阅读上的问题,以及我对阅读的错误的认识。

Brant曾经一度想通过阅读某本绝世经典书籍,来改变自己,改变命运。即使不能,也要通过阅读大量的书籍,来快速提高自己。阅读是一种快速积累知识、技能、信息的方法,但就是因为容易并且速度快,失去得也会很快,因此仅仅是阅读是不够的,还要总结实践,甚至是大量的练习。

1. 只看经典书籍:

这种以完全掌握书中所讲的知识为目的的阅读,注定了阅读速读不会太高。因此我们选择阅读一本书籍也要慎重选择。我们要对我们自己的时间负责任,只选择经典书籍。决定阅读后,就要做到把自己想从书中学到的技能掌握。

2. 及时思考,做读书笔记

做读书笔记是对书籍中所讲内容的一个初级加工。读书笔记主要是把自己在阅读时的思考内容总结下来,把书中好的内容用自己的语言来记录下来。这样方便以后回顾,并能加深自己的理解。获得多少并不取决于我们读了多少,而取决于我们思考了多少。刘未鹏有一个比较好的习惯,在走路吃饭时候思考,在睡前总会弄一个问题去思考,在思考中入睡,这样就多出了很多思考时间。

3. 如何引导自己去思考?

在学习一项知识的时候,必须问自己三个问题:

a) 它的本质是什么?

b) 它的第一原则是什么?

c) 它的知识结构是什么?

学习和思考的过程中常问自己几个问题:

a) 你的问题到底是什么?(提醒自己不要偏离问题)

b) OK,到现在为止,我到底有了什么收获呢?(提醒自己是不是去总结,整理学习到的东西)

c) 设想自己正在将东西讲给别人听(有声思考;能否讲出来是判断是否是真正理解的最佳办法)

d) 设想需要讲给一个不懂得人听(迫使自己去挖掘知识背后的最佳本质,往往也是最简单的解释)

e) 你真的了理解问题了么。你抓住问题的本质了吗?(不要让自己只知道表面的知识)

f) 他说的内容对吗?(不要盲目相信书中所讲,很多看似非常非常有道理的内容,经不起推敲)

4. 分享出去

把你所学的内容分享出去,这是对你所学内容的进一步加工。当你尝试把你所学到的内容分享给一个不懂的人的时候,你通常要做如下几件事情:

a) 把握知识的整体架构,要弄清出,应该以什么样的顺序作分享

b) 被分享的人会不会听不懂?你要挖掘分享内容的本质,用一个更容易理解的方法来讲解,比如类比

c) 被分享的人会不会对某个内容有疑问?也许被分享的人不只是想知道表面的知识,向更深入的了解。所以你要先深入了解。

d) 被分享的人会不会不同意个某个观点?你分享的内容一定是对的吗,你怎么证明?这些都需要去思考。

5. 实践

有时我们阅读一些书籍,是想获得某一技能,或者在某一方面有提高。这类书中常常会给一些建议方法,这时我们真正获得它或者提高不是阅读之后,而是在我们实践之后。有时书中的短短几句话,我们需要用几个月的时间去实践练习,甚至是要我们养成一个伴随终身的习惯。所以实践之前,我们要问问我们自己,我真的需要掌握这个技能吗?我需要掌握到什么程度?计划要花多长时间掌握?花费时间比较长的实践,要为自己定制一个计划。否则我们可能出现同时实践很多内容,每一项又都要花费比较长的时间,最终我们都没有很好的掌握。

转载于:https://www.cnblogs.com/brantyz/p/4053662.html

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值