初见成效,别懈怠——写给11月依然坚持的自己

    每一次的坚持带来的小惊喜都是自己下一次坚持下去的勇气。每一次阶段性小目标的达成,就要自己奖励一下。

    因为公众号快达到自己定的阶段性目标100篇,这个月也忍不住偷偷告诉了几个人,当我告诉他们,我一年跑了170次步,770公里,17年已经读了70多本书,大都会问:你怎么做到的?你怎么那么多时间?。其实方法我在以前鼓励自己的鸡汤文中有提到,说到底还是时间管理。

  • 读书时间:这个时间完全是白挣来的

    这个时间98%是公交车或者路途上无法避免的时间,比如出差、坐车游玩。这个方法因人而异。我每天单趟耗在公交车上45分钟,以前会聊天、买东西,或者看下朋友圈公众号文章,现在基本上我会控制住,在公交车上只打开微信读书,其他的事情留在下车的几分钟或者中午吃饭的时间。这样每天至少1个半小时,当然如果哪天不坐公交车,这个时间就会少了,但是周末会刻意补点读书时间,一周下来6、7个小时的读书时间还是有的。

  • 运动时间:

    我主要的运动是跑步,大约6:40/公里,有固定路线,算下来,每次跑步4公里不到30分钟,只需要早起30分钟(因为我家宝起的早,不得不早起。。。),最难的是冬天起来跑步,很多时间会有不跑的想法时,不过想想也就30分钟,在迷糊状态就一遍遍说,就30分钟,你看醒都醒了,在家宝也不理你,下去吧,快下去吧,只要下去你就赢了,然后下去就没有退路了(因为我是7楼没电梯),实在早上不想跑,就周末或者晚上补,每次跑步的时候一想只有30分钟时间,就不会觉得特别难了。

  • 公众号写笔记:

    平常时间是宝睡觉之后,一般10点开始到11点半。当然最不希望的就是他10点半才睡,这样时间真的好少。周末时间,最近娃在老家,无人打扰,无须陪他找小朋友玩,一般都会抽一天,或两个晚上。看了下我的51cto的课程,累计学习时间也很惊人。

    其实这些方法我有告诉过一些朋友,但是发现很少有人能持续路途上大部分时间用来读书,这么算下来,我应该是属于比较能坚持的了。又想起来高中为了让自己起早,拿着教室钥匙的事情,人都是有惰性的,需要不断的外力或朋友来鼓励自己。而我开始跑步是和读书有关,开始读书是因为在现在的公司认识了很多不一样的人,我认为很厉害的人,看到了自己的差距,只能加油快跑。

     当然最重要的还是家人的支持,我是比较幸运的,有老公和婆婆的支持,主动承担家务,这点其实应该是最重要的,要不早晚和周末的时间是没法保证了,不止一次的觉得家务真的很耽误时间,此处需要机器人。


继续po读书和跑步记录,这是自己进步的动力。本期新增公众号笔记记录,快要达到阶段小目标了。


1)读书记录:


读书时间


等这段时间的学习任务完成,要开始写读书笔记,已经发现读过的书,忘记的太快。

需要某个知识的时候,再枯燥的书,怎么都能读下去,比如公司法,为了解决家里亲戚的疑问,我也是拼了。


2)跑步记录

173次,784公里。回老家没有带跑步鞋,跑步次数下降(其实都是借口)

    跑步的这段时间,发现越跑步,精力越充沛,很少出现以前经常疲倦的神情,所以每当身心疲倦的时候,来场跑步是不错的运动。

    现在激励方式:不想学习读书、不想浪费时间的时候,就去跑步,然后跑步的时候不断的和自己说,你看自己跑步都坚持下来了,还有什么坚持不下来呢,跑步的时候也会开导自己一些事情,类似于自言自语,跑步结束,烦恼也结束了大半,所以近期的脾气好了很多(相比于过去)。


3)关于写笔记。

    写笔记的习惯是今年1月份一个同事介绍的mybase软件,记了一段时间,自从3月31日一个突然的想法,想要记录下自己读过的书籍,每月学习的东西,看看自己到底能做多少事情,说干就干,先把自己先前的读书记录和跑步记录po了上去,然后定下目标,写到100篇笔记时,就把公众号发布出去,这个期间要自己默默的总结,默默的积累,看看自己能坚持到什么时候。没想到截止到现在可以发表的,竟然已经积累了95篇了,离一阶段目标发布,看来很近了。

      写这个笔记整理,最大的收获是帮我建立持续学习习惯,用到学到的知识点很快能查到,也发掘了自己的学习能力,现在只要是靠自己查资料能学习的知识,都可以微微一笑说,这都不是事,学就是了。

    看过一句话,也是写笔记体验很深的:

    当你看别人的资料觉得掌握的差不多了,其实有可能明天就忘的差不多了,自己动手从头开始做笔记,真正的写出来,你才能掌握。

    在总结一个知识点时,看懂和写出来差异很大,写出来的时候需要一些关联或者思路,要查很多的资料,说明为什么这样,怎样推导,要考虑自己下次再看的时候是否可以看懂,一眼就能用。这个过程就是一个持续学习的过程,有时候也会卡在一个知识点上好几天,完全看不下去,所谓的精神低谷期吧,这个时候只能自己排解一下,再多查点资料,说不定就柳暗花明了,而等真的搞懂的时候,那种胜利的滋味是非常受用的。

    现在自己总结的东西,发现回过头去看,最多一个月的时间,有些东西又已经遗忘了,记忆力真心下降了,如果不是自己总结的东西,应该是真的忘得很快。




既然开始了,就继续做下去,不要犹豫。


深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值