年终荐书

点击蓝色“有关SQL”关注我哟

加个“星标”,天天与10000人一起快乐成长

"我要怒放的生命,就像飞翔在辽阔的天空,就像穿行在无边的荒野..."

我把老汪这首歌,当做清晨的闹铃。试了很多其他歌,都不行。只有它,才能把我心里的小宇宙唤醒。

你们可能觉得我是来搞笑的,没关系,个人喜欢罢了。

别想多,我还没准备做娱乐博主。作为鸡汤学的资深 "韭菜",《成功学》、《人性的弱点》都是我的常备书单。知道很多人不屑这些,认为缺乏逻辑,不具实战操作性,那同样是你们的自由。

给人希望的书,我从来都是来者不拒。没有它们,我不知道从哪里获取前进的力量,也不知道到底还要不要谈论明天。没有它们,我会败给酒精,败给东野叔叔无穷的脑洞,败给刀光剑影的金庸剧,当然还有费钱的王者荣耀们。

但多年前的一个清晨,我突然厌倦了11点起床(谁没赖过床),泡面加火腿(没有外卖),上下班踩点(如今不需打卡)的节奏,开始意识到该改变点什么,但又不知道怎么去做。我慌了,也焦虑过很久,直到遇见这本书《为什么精英都是清单控》

读完它,我突然明白我过得那么随心所欲,其实是毫无目的

我尝试着把自己的想法,全部罗列到白纸上。多年后,我依然清晰记得,完工的那瞬间,整个人都轻松了。就像是突然灌了400CC的内啡肽(跑友都知道那种感觉),无论来多少Bug,没有一丝退意。

原来我每天都在想,要做点什么牛逼的事情,要读完哪些经典的书,这些想法,时而迷糊,时而遗忘,计划年年做,拖延分分钟。绞尽脑汁回忆自己的计划,却每每都只是又一次深深的打击。

该死的是,年底时分,沉浸在一片欢喜的气氛中时,年初的某个想法从地狱中伸出一只手来,不偏不倚地击中我忧郁的敏感神经,让我晃悠悠度过原本开心的那几天。

自从对清单法上瘾之后,那些想法就像JIRA(软件开发需求)一样,被罗列在我的年度计划excel清单上。一个都跑不了,而不再是游戏中若隐若现的“地鼠”,此时他们只有两个标签,Done Or WIP, 完工或者未完!

再也不用,时时刻刻都惦记那点事,费我的脑内存不说,还干扰了我的神经网络,一旦莫名的焦虑情绪上头,我可真不敢说,神经元们还能正常工作,必须中断,重启。你说多浪费脑计算资源。

书中提到一个清单衍生,愿景板。常年混迹于外企的朋友都了解,老板们年初都会谈,vision and mission, 也就是愿景与任务。不错,我们个人也可以有 V&M 这个板子。当我们把清单放在板子上,出门前看下,回家来复盘,工作与生活有条不紊。

是的,文字也可以有可视化。

(图来自网络,侵删)

奶爸们都知道,回家的常规操作,进门,换鞋,脱口罩,洗澡,做晚饭,带娃,换班。如果每天都在操心这些操作,哪个在前,哪个在后,那是白白浪费脑计算资源,干脆弄个列表,按照上面的步骤来,就好。

同样,对于程序员来说,世纪难题就是吃饭。每到中午时,下单付款往往2秒钟,但选哪家店,却往要耗时10来分钟。吃什么,川菜,香菜,还是浙菜,麦当劳?似乎都想吃,又都不想吃。只有等到肚子饿扁了,才认怂。

很多朋友都问我,为什么那么喜欢麦当劳?其实很简单,在我的午餐清单里,就两个选项:必胜客,麦当劳。我想,和程序员大都喜欢格子衫,一个道理。避免切换线程,剩下的精力,多解决几个bug,不香嘛!

好了,2020终于要过去了。祝福大家来年都好,别忘了用清单法,好好规划下来年的计划和愿望,你一定会回来感谢我的。

哦,对了,读书打卡活动结束了。详情看这里:

极力推荐一本 DAMA 著作,为你开启百万年薪的数据总监之路

恭喜 Sophia,L,英杰 三位朋友达到此次活动的要求,我会尽快安排订单,希望这本书是你们的第一个新年礼物!

--完--

往期精彩:

本号精华合集(三)

如何写好 5000 行的 SQL 代码

如何提高阅读 SQL 源代码的快感

我在面试数据库工程师候选人时,常问的一些题

零基础 SQL 数据库小白,从入门到精通的学习路线与书单

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

dbLenis

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值