高级的人生,就是做一个“无用”的人

我们大多数人都只会拼命工作,却不会享受这个世界真正美好的东西。但其实,那些不一定有助于你成功,却让你觉得很有趣,很快乐的事情,看似无用,最终润雨细无声的化成养分在某个时段为你输送供给,甚至带来人生新思路和转机。

央视著名主持人白岩松,曾经在厦门大学的一场演讲上倡议大家都多去做一点看似“无用”的事。他说,中国人从来不做无用的事,我们讲究“直达”。工作、生活都是功利的直达目标,过程几乎可以忽略不计。

是啊,自从有了智能手机后,不要说闲逛,我们连无聊的机会都消失了。一闲下来,就拿起手机,看个微信刷个微博,胡乱搜索点儿什么。手机不仅阻止了无聊,也阻止了无聊所能够带来的好处。

“无聊”也是能带来好处的,也许很多人无法理解这一点。蔡康永说台湾的爸妈是很奇怪的,总是喜欢问“这有什么用?”

“我想学舞台剧。”“这有什么用?”
“我正在读《追忆似水年华》。”“这有什么用?”
“我会弹巴哈了。”“这有什么用?”
“我会辨认楝树了。”“这有什么用?”

但庆幸的是,他的爸妈从来不问他“有什么用?”

“漂不漂亮?”“喜不喜欢?”“好不好吃?”这些才是整天会被问到的问题。但在他看来,人生不是拿来用的。而是拿来享受的。

爱情、光荣、正义、尊严、文明,这些一再在灰黯时刻拯救他、安慰他的力量,对很多人来讲“没有用”,对他来说,却是人生的珍宝,经得起反复追求。从很小的时候起,大人就教育我们,长大后一定要做一个有用的人。少壮不努力、老大徒伤悲,玩物一定会丧志,等等诸如此类的警世名言总是回荡在耳边。我们急着教会小孩怎么去变成一个能干又厉害的大人,却很少有人去教他们怎么做一些无用的事,更别说做一个“无用”的人了。那么,从小就学着做一个有用的人的我们,长大后怎么样了呢?身边总会有一些朋友来和我诉苦,他们诉苦的中心点大概围绕着工作太无聊了,每天在家与公司间重复两点一线的工作生活、仿佛这样的日子还要再继续个三五十年,想着就没劲。我问朋友,为什么呢?除了暂时没有对象,其它不都还挺顺利的吗?工作相对比较自由,同事都很好相处,薪资能在养活自己之外有一些结余,仿佛没什么让人抑郁的理由啊。朋友说,就是突然不知道活着有什么意思。每天这样上班加班下班,回家就吃饭玩手机睡觉,没什么追求,也懒得改变,但是心里又很不得劲,觉得这样的生活状态是不好的。其实我很无力,不知道怎么改变。听着的确也让人揪心,如一潭死水的生活,有时候真的会让人绝望,20多岁的人就过着仿佛七八十岁的暮气沉沉的生活,一眼都能望到头的日子毫无涟漪。

其实人一辈子哪怕三分之一花在无用的事情上,其心灵和精神就会丰富,幸福指数会大大提高。如果百分百都花在有用上,最后就会像我那个朋友一样变得很焦躁,以至于最后可能还会得心理疾病。人生应该多做一些无用的事情,比如听音乐会、阅读、插花、画画、书法,这都是看起来没有什么用的东西。看Discovery、国家地理、BBC的纪录片多了后,会发现很大一拨不干“正事”的人。他们几年十几年甚至一辈子都和某个动物呆一起、照顾保护他们,没有收入甚至有时候可能还得自己掏钱。但是看他们脸上灿烂的笑容,你就知道他们有多么开心幸福。

这类人在国内大部分家长看来,大概就属于那种一事无成玩物丧志的异类吧。周作人在《北京的茶食》中说:“我们看夕阳,看秋河,看花,听雨,闻香,喝不求解渴的茶,吃不求饱的点心,都是生活上必要的——虽然是无用的装点,而且是愈精炼愈好。”我们大多数人都只会拼命工作,却不会享受这个世界真正美好的东西。

那些不一定有助于你成功,却让你觉得很有趣,很快乐的事情,看似无用,最终润雨细无声的化成养分在某个时段为你输送供给,甚至带来人生新思路和转机。金钱不过是追求“更大更好的世界”的手段,而不是目的。积极的生活观,应当是不吝惜力气去工作,去赚钱,也要不吝惜时间去享受,去做自己喜欢的事情。

一个人只拥有此生此世是不够的,他还应该拥有诗意的世界。

世俗的“无用”对渴望自由的灵魂来说却是金钱换不来的“有趣”,人生如果只做有用的事情 那该多么无趣啊。

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值