你有没有想过,你这辈子也就这样了



一直很喜欢作家李尚龙的文字。


昨天看新书,读到他写的一段经历。


十几年前,李尚龙的父亲,有个朋友是银行的会计,打的一手好算盘,他的计算速度很快。


渐渐的,计算器开始普及,用算盘的人屈指可数。


但“算盘王”每天依旧拿着算盘上下班。看到用着计算器的年轻同事,他就一脸鄙视,自言自语:老祖宗的传统都被你们忘光了……


因为实在格格不入,没多久,他被公司办理了提前退休,退休前一天,他还坚持用算盘工作。


李尚龙无限感慨,鄙视我们的长辈们,到底是谁在不思进取?


怎么能不感慨,这样的例子太多。许多人都是这么自以为是的活着。他们不思进取,他们从来不曾意识到,最大的风险,是没有风险的活着。


而你,有没有想过,你这辈子可能也就这样了,毫无改变,被时代抛下,平庸至死?




上个星期,去郊区办事。因为打不到滴滴,坐了今年第一次的士。


司机是个20多岁的年轻人,打扮老气。


和他聊天,才知道,小伙子虽然是专科毕业,曾经读的,却是相当时髦的物流管理专业。


我问他,为什么不去大城市的公司上班?年轻的司机告诉我,是接父亲的班,父亲开了三十年的士,现在开不动了,所以他接手了。


我分外惊愕。


我再问他,现在滴滴和的士竞争这么激烈,你有没有想过,以后去做什么?小伙子白了我一眼说,现在每个月能赚六七千块钱,他很满意。


他一脸鄙视,好像我问了一个相当弱智的问题。


我只是仿佛,看到了这个司机10年后的人生。他今天所有的满足与骄傲,他以为一成不变的生活,到时都要被碾为碎末。这个世界变化的速度,远比想象的要快,而他这辈子,也就这样了。



半年前,回了一趟母校。


竟然发现,毕业十年了,商业街上那家书店的老板,仍然没有变,还是那个永远微笑的胖子。同样没有变的,还有一位留校的学长。


十年前,学长是系里的风云人物,本科毕业,他没有悬念的留校了。


十年后,我们再见面时,他是系里的学生科科长。


他依旧衣着朴素,用的是目测不超过两千块钱的手机。热聊中,我好奇,这么多年,你为什么没想着出去闯闯?


他答,虽然现在只有三四千多一个月,还租着房子,但学校工作稳定,也谈不上累。挺好。


我不知道,说些什么才好,我只是隐隐为他的妻儿不值。一个三十多岁的男人,月收入三四千还租着房子,竟然觉得岁月静好。


他有没有想过,他这辈子也就这样了,而人生的艰难,只会越来越多。



有太多这样的人,30岁就死了,只是到80岁才埋葬。


因为从二三十岁开始,他们就没有目标,每天的日子,都是得过且过。


有的人,很早就拥有超群的技能,但他的一辈子,都是在重复这种技能,直至它渐渐与时代脱节,被淘汰,却浑然不觉。


有些人,拿着五六千块钱的收入,做着没有升值空间的工作,却天真以为,这样的安稳日子,可以继续到老。


有些人,曾经优秀过,但在那之后,他们再也不去看外面的世界,成为了生活在套子里的人。


7岁时,你梦想做一个科学家;18岁时,你考上了一所不好不坏的大学;22岁时,你想去世界五百强工作;30岁时,你拿着刚够养家糊口的月薪,却再也没有激情。


你的人生,一辈子也就这样了。



在这个世界上,其实只有两种人。


一种是始终不甘平庸的人,一种是曾经热血沸腾,最后却活成了平庸的人。


绝大多数人,生来差距并不大,但有些人,为什么一步步走向了平庸?


知乎上的经典回答是:


那是因为,这些人,始终在对自己说着,3个谜之逻辑的句式:


1、 等到……我就……。比如,等我感觉到压力了,我再去学习;


2、 如果我有……我就……。比如,如果还过得去,我就不会改变自己。


3、 要不是……我就……。比如,要不是我家没有背景,我肯定也能混得好。


我们之所以平庸,不是其他,只是因为,你一直在抱怨,一直不愿为之改变。


有句话说,99%的人都过着不喜欢的人生。那么,你不妨成为那1%。


头顶有着星辰,心中有着道德律,眼前有路和远方。不规规矩矩的活,这样的人生,才值得一过。

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值