我们今天该做什么——每天晚上算算成本和收益

*读了这样一本书《20-30岁,你拿这10年来做什么》,作者——砍柴人。特与大家一起分享,以下所写内容均为转载,版权归作者所有。

   

        因为猩猩没有成绩单,所以它们才没有从树上下来进化成人。  —— 砍柴人

 

        美国心理学家罗斯和亨利做过一个著名的反馈效应心里实验,实验证明了阶段性的考核对人的学习和成长是非常重要的。 

 

        他们的实验是在学校里进行的,把一个班的学生学习成绩不分好坏分为两组,第一组每天学习后进行当天成绩考试,第二天早上公布考试成绩,并帮助他们找出不足;第二组既不考试也不总结,让他们按部就班地学习。 

 

        8周后,两位专家组织全班学生进行统一考试,考试成绩出人意料,第一组学生的成绩远远高于第二组学生。此后,他们把两组学生对调,按原来的方式做实验。8周后,发现原来第二组的学生的成绩又远远高于原来第一组的学生。 

 

        这个实验说明,在学习过程中,对一个学生不断地监督、证明和总结,对学习的促进作用也不同。及时知道自己的学习成绩和自己需要弥补的地方,矫正自己努力的方向,会对下一步的学习有重要的促进作用。 

 

        在我们上学的时候,老师为了检查我们知识掌握得如何,会有诸如单元测试考试、期中考试、期末考试等。从这些考试成绩单中,我们就知道自己哪一部分学得好,哪一部分没有学好,然后根据成绩单的好坏,再对自己的知识薄弱点进行有针对性的学习。 

 

        假如从小学一年级到高中三年级,从来不进行考试,后果会是什么样?按照现在的高考标准,恐怕没有一个人能考上大学。 

 

        没有一张张阶段性的成绩单,孩子们就没有一个好和坏的参考标准。既然学习和打游戏是一样的,为什么不去玩游戏而去学习呢? 

 

        20几岁的男人,每一步都在尝试,每一天都在更新,每一年都在调整。同时,我们也需要小成功让自己变得自信,需要一点一点地尝试辨别,所以我们必须来证实自己20几岁时的每一步每一年。怎么来证实呢,那就需要不断地总结、核算,然后加以判断。 

 

        20岁到30岁这个过程没,是我们人生主要的学习阶段,学习的范围非常广泛,唯一与学校不同的是,这些学习不像在学校里那样,有一个具体的成绩单检验我们学习得如何,而是让我们很难做到自律,不知道今天该做什么,明天应该做什么,不知道做这些到底为什么。处在这样的情况下,我们年轻人,很多时候是放任自流的。 

 

        对于男人来说,30岁是人生中的大考。也就是从这次大考试中,决定了社会成员的三六九等。别说30岁以后才明白,明白了,晚了,有什么用? 

 

        20几岁的男人,由于心理不成熟,自我约束能力不强,很难抵制住来自各个方面的诱惑,如果不能时刻对自己的行动进行成本核算,恐怕就是“我不知道我是谁,我也不知道为了谁”了。如果我们混了,就一定要付出代价。 

 

        来到社会上,没有人给我们人生的每一个阶段发成绩单,更没有老师告诉我们哪一点做得对,哪一点做得不对。最关心我们的是父母,但是父母也未必知道我们真正想要的是什么。在我们确定好自己想要什么的时候,就得每天晚上对自己进行考核了。 

 

        每一天晚上,我们上床的时候,利用5分钟的时间,问自己以下几个问题,看看答案是什么: 

        1.我们今天都做了什么?

        2.今天做这些事情对自己都有什么好处,有什么坏处? 

        3.今天那一段时间过得最有意义?那一段时间没价值?

        4.今天做的工作对自己实现目标起到什么作用?

        5.今天那件事情最不应该做?

        6.今天做的事情有什么缺憾?

        7.今天自己最大的损失是什么?

        8.明天最该做什么? 

 

        每天晚上坚持这样做,就会让我们在正确的方向上,以最短的距离向目标靠近,不至于让自己在错误的方向上越走越远还不知不觉。 

 

        每天都要对自己的付出与得到,进行成本与收益的核算,就可以更清楚知道明天哪些事情坚持做,哪些事还要进一步完善。每一天完善自己,每一年就能取得可观的进步。到30岁的时候,我们在不知不觉中,就已经遥遥领先同龄人了。 

 

        夕阳是白天的句号,漫天星辰是我们内心的盘点,得失尽在其中。

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值