看完忍不住泪流满面!总有一代人要背井离乡...

文:李栩然

摘自新书《所有的奋斗都是一种不甘平凡》

01

我和建哥的小学,是在一所希望小学里上的。

二年级的时候,县里要组织各小学进行合唱比赛,我和建哥都参加了学校临时成立的合唱队。

但因为穷,请不起专门的老师,所以只能放学后自己练。学生们根本不会唱歌,那种旋律复杂的歌曲练都练不来。最后选了一个很多山里小孩儿都会的民歌童谣,勉强唱整齐了。

到了比赛那天,每个人要穿黑裤子、白衬衣、白胶鞋。许多人都是去别人家借或者穿父母的,长的长、短的短。

胶鞋也买不起新的,回家洗了又洗还是没办法洗白,只能互相用粉笔在发黄的地方一层一层地涂,一路走一路掉灰。

比赛的地点是县里的礼堂,那是我们第一次去那么高级的地方。在我们唱之前,我和建哥因为紧张,一起去上厕所,在门口正好碰到几个县里城关小学的学生,年龄跟我们差不多,但个头比我们高出一大截。

他们也是来参加比赛的,穿着崭新的黑西裤白衬衣、擦得发亮的黑皮鞋,还系了漂亮的领结。

看到我们的样子,他们眼里露出明显的鄙夷和瞧不起,使劲把我们往外推,不让我们上厕所。

我和建哥稍微反抗了一下,就被他们推在地上,涂了粉笔灰的白胶鞋也被踩黑了。

我们不敢哭,也没有告诉老师,就那么忍着泪憋着一口气唱完了整首歌。

02

后来,我和建哥一起考上了县里的初中,又一起考入了重点高中。

那段求学的日子,除了学习成绩,我们一无所有。因为贫穷和老实,曾很多次被县里的孩子欺负甚至敲诈。

那些当年欺负过我们的孩子,他们的父母有的是县里的领导,有的是当地沙厂的老板,有的开着公司,有的炒着房地产……我很想告诉你们,这些孩子因为不学无术所以长大后一事无成,最后坐吃山空过着穷困潦倒的生活。

但那只是童话,现实却是他们在县城里过着远比很多人要轻松舒适的生活。有关系的,进了政府部门,有钱的,做起了生意,或者子承父业开起了公司,他们早早地买了房买了车,娶了漂亮媳妇儿。

说真的,人们很多时候都低估了这种三四线城市里的人情关系与父辈资源的威力。

在越小的地方,这两者越容易联手,可以轻易地堵死你凭借个人能力超越他们的机会。

我毫不怀疑,如果当年我和建哥没有考上大学,或者毕业后回去,很可能今天也就是在他们手下做事或打工,为了每个月两三千块的收入,拼尽全力。

03

幸运的是,我和建哥考上了大学,进了大城市,见到了更大的世界。

虽然建哥高考考得并不好,最后只能去了天津一所三本院校。毕业后从很基础的工作开始干起,一年的工资还不够回家一次的花费。但现在他也已经是一个房地产公司的小领导,一个月的收入可以在天津买一平方米房子了。

经过了这么多年的努力,我们终于在大城市里站稳脚跟。

现在可以说,我们一点也不比那些小县城里的公子少爷们过得差,那些儿时的贫穷和屈辱,就像是上辈子的回忆那样遥远。

我们的下一代一出生就将毫无疑问成为城里的孩子。我一定会教育他:不要去瞧不起或者欺负那些农村来的孩子,因为你每天习以为常的东西,在他们那里可能就只在幻想里出现过。

这些年,生活教会了我很多道理,其中很重要的一条是:

穷就要承认,没钱就要努力去挣,这没什么好丢脸的。在自己还很年轻、家里还很缺钱的时候,找个小地方,养养花草,看看书,旅旅游,唱唱歌,告诉自己:我在过一种诗意的生活。或许,很可能是你还没有见识到这个社会残忍的真相,更可能,你以为生活巨大的不幸绝不会降临在自己身上。我曾经也这么认为。

04

父亲重病的第三年,是我最艰难的时候。我在这座城市里举目无亲,没有谁可以依靠,每天都在苦苦挣扎。有天夜里,在医院陪着父亲做完手术,然后坐车回单位,在一个公交车站换乘,看着面前灯火辉煌的百米高楼和人来人往的街头,清冷的夜色里,我蹲在地上哭成了一个傻子。我那时候不明白,自己为什么一定要过这么艰辛的生活。

现在我明白了:因为,你没有选择。

说实话,北京的生活真的很难。我也并不是鸡汤贩卖者,没有什么一步登天一夜暴富的“成功学”经验。我有的只是一步一步脚踏实地往前走,一点一点地积累。

我想起来,小学二年级时,我和建哥曾参加过的那次歌唱比赛。

我们没有钢琴伴奏,没有好看的西装裤和白衬衣,白胶鞋被踩满脚印,唱的歌没有复杂的和声,甚至都没有什么旋律。那只是一首很土的儿歌,但我们却唱得很认真。最后的结果是,我们拿了第一名。

从那时起,我就相信,只要给我们站上舞台的机会,我们并不比任何人差。

而大城市,就是这个舞台。

05

就在父亲去世后,我再次面临同样的抉择:留在北京还是回老家?

那时的我租住在北京的一个小单间里,只留下年逾六旬的母亲一个人住在山里的老家。

每次打电话回去,母亲都告诉我她很好,让我好好工作。

但每当我想到,母亲要一个人在冷冷清清的家里自己做饭、自己吃饭、自己干农活、自己和自己聊天……就觉得非常难过。

出来这么多年,第一次,我真的动了回老家的念头。

瞒着母亲,我报考了老家的公务员;同时,我还在网上接连投了好多老家的单位,其中有一家,是在离老家仅仅几公里的镇上,一个不大的工厂。他们领导跟我电话聊了几次,基本确定要我了。

工资虽然不高,但我回去工作,就可以每天都住在家里,陪着母亲吃早饭、晚饭,甚至中午骑个电瓶车也能回家吃午饭,周末还可以和母亲一起干干农活,去赶个早集……

在下决心回去之前,我犹豫了很久,自己做了一个假设:如果我真的回去了会怎样?

那我就能陪着母亲住在家里的老房子里,过着轻松简单的生活,我可能还会在老家附近找个家境差不多的老婆,然后生个小孩,孩子在镇上上小学,如果他成绩不错,还可以考到县里去读中学,然后再参加高考,然后再到省外读大学,然后……

好熟悉的场景,一如我现在。

是的,我自己就是这么一路走出来的,从山里走到县城,从县城走到大城市。如果我选择回老家,我的后代将会继续复制我曾走过的这条路。

更重要的是,因为老家的收入不高,一旦我回老家后母亲身体出现什么状况,我将不可能像在北京工作时那样,轻轻松松地将她接到北京来就医。

所以,我最终选择留在了北京,并且,更努力地奋斗着。

又过了几年,我终于定居在北京,成了家。然后,将母亲接到了这里,每天晚上,我和爱人陪着母亲一起吃晚饭,周末,陪着母亲去逛公园。

而我那几乎从未离开过农村老家的母亲,则第一次坐了飞机,第一次出省到了北京,第一次吃上了烤鸭,第一次进了电影院,第一次去国家大剧院听了交响乐……

06

去年过年前,我陪着母亲去奥林匹克森林公园走了走,爬到仰山上,给母亲照了一张照片。母亲已经六十多了,这两年却越活越年轻,本来白掉的头发竟然慢慢变黑了,还学会了很多城里年轻人的姿势,比如剪刀手。

对母亲而言,大城市里的一切都是那么新奇,一切又都是那么美好。有一天晚上,我和母亲坐在家里看电视,屋外寒风凛冽,屋内温暖如春,母亲突然很感慨地说:我真是没想到我这辈子还能过上这样的生活啊……你爸要是还在,该有多高兴啊……

我的眼里瞬间充满泪水。

在那一刻,我觉得,我在这城市里所有的拼搏、所有的付出,都是值得的。

世间道路千万条,没有哪条路是唯一的一条。许多时候,大城市或者小城市也不过就是围城,真正应该选择的,是自己能接受的、最适合自己的。

说到底,在哪里生活都一样有苦有乐,有遗憾,也有抱怨。

如果你和我一样出身农村,身上背着很重的负担,同时又希望能有所作为,那你可以尝试在大城市里闯一闯、拼一拼。

这其中当然会有很多的痛苦,包括现在,我也只是奋斗路上的普通一员,工作、房贷、生活……每一样都如重担一样压在身上。

我的老家在西部,是一个悠闲、家居的地方,在那里生活压力当然会小很多,我又何尝不知道我选择了一条更艰难的道路,我又何尝不想时不时地回趟老家?

但总要有一代人背井离乡,从农村到城市去,为自己,也为家人;因为现实,也因为梦想。

所以,我选择继续留在这里。

-end-

李栩然

善于用真诚的文字和独特的角度,解答个人成长、职场打拼、情绪管理等方面的困惑,知乎账号:李栩然,。新书《所有的奋斗都是一种不甘平凡》已上市,火热销售中。

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值