2020年3月31日 生活思考 ~ 子贡论时

记得2018年的夏天,大伯去世,我回老家守灵堂,有个姑姑住在乡下,有一段时间,有个推销员老是去姑姑村子里做好事,时间长了,和老人相处的十分融洽,顺带着介绍了一个净水器,姑姑在他的介绍下有点感恩帮忙的买了一个,当然价格不菲,表姐说姑妈被骗了,姑妈不相信,表姐咋说说不通,看到我在一边,就把我叫过去说:“我的不信,你看表弟,表弟读书多,在大上海大公司上班,懂得多,他你应该信吧”,然后描述了一下,我不用问,就知道姑妈被骗了。

但是我一下也知道不能直接说姑妈别骗,我就用我老爸被骗的事情开始说起,姑妈听进去了,我跟姑妈说确实是买高价格了,正常商品可以去县城超市买一个更加实惠的来,姑妈听了好像有些不太高兴,但是也没有反驳,我感觉我好像也么有沟通的十分好。

 

今天看到一个子贡论时的故事,深有感触,孔子对人性的把握相当精准,与人聊天恰到十分啊,看记录下面:

一天,孔子的一个学生在门外扫地,来了一个客人问他:“你是谁啊?”他很自豪地说我是孔老先生的弟子。客人就说:“那太好了,我能不能请教你一个问题?”学生很高兴地说:“可以啊!”他心想,你大概要出什么奇怪的问题吧?客人便问道:“一年到底有几季?” 学生心想,这种问题还用问吗?于是便回答道:“四季,春夏秋冬四季。”客人摇摇头说:“不对,一年只有三季。”两个人便争了起来,互不相让,最后约定谁对就让对方给自己磕三个头。孔子的学生心想自己这次赢定了,于是准备带客人去见老师孔子。正巧这时孔子从屋里走出来,学生上前问道:“老师,一年有几季啊?”孔子看了一眼客人,说:“一年有三季。”这个学生快吓昏了,可是他不敢马上问。客人马上说:“磕头磕头!”学生没办法,只好乖乖地磕了三个头。

客人走了以后,学生迫不及待地问孔子:“老师,一年明明有四季,您怎么说三季呢?”孔子说:“你没看到刚才那个人全身都是绿的吗?他是蚂蚱,蚂蚱春天生,秋天就死了,他从来没见过冬天,你讲三季他会满意,他讲四季吵到晚上都讲不通。你吃点亏,磕三个头,无所谓。”

我第一次听到这个故事,怀疑其真实性,感觉这是后人杜撰的,于是搜索资料查询出处,《论语》没有,《世说新语》没有,倒是查出一段文言文,大家参阅一下。

朝,子贡事洒扫,客至,问曰:“夫子乎?”曰:“何劳先生?”曰:“问时也。”子贡见之曰:“知也。”客曰:“年之季其几也?”笑答:“四季也。”客曰:“三季。”遂讨论不止,过午未休。子闻声而出,子贡问之,夫子初不答,察然后言:“三季也。”客乐而乐也,笑辞夫子。子贡问时,子曰:“四季也。”子贡异色。子曰:“此时非彼时,客碧服苍颜,田间蚱尔,生于春而亡于秋,何见冬也?子与之论时,三日不绝也。”子贡以为然。

后来有人这个故事出自《庄子秋水》,可是翻遍庄子全文也没有这句话,只有《庄子秋水》里的一句话似乎沾点边,“夏虫不可以语于冰者,笃于时也”。意思是说:对夏天的虫子不能跟他们说冬天的故事,因为他们从未经历过冬天。

不过学识渊博的曾老夫子也没有说出此文出处,只是说在曲阜孔子的老家听说过这样一个故事,可见更是后人的杜撰了。

孔子火眼金睛认出了蚂蚱精,这种糅合了道家或者民间传说的情节,不得不说原作者编造手段好低。孔子从来不说这些神鬼之类的故事,风格上倒有点庄子的味道。

还有子贡和蚂蚱精打赌磕头也怪怪的,宋明以前,磕头没有这么普遍吧,一般只对神明和长辈,随便和一个陌生人打赌磕头太不严肃了吧。

况且孔子如果真的遇上了这件事不会这么做,孔子在学习这方面是很实事求是的,知之为知之,不知为不知,是知也。事情是怎样的就是怎样,我想孔子不会为了迎合客人而曲解事实。这个故事不过是打着孔子的旗号忽悠人。

虽然如此,但是“夏虫不可以语冰”这个道理我是赞同的。我有很多的朋友听我讲了这个故事以后,变得很开心,碰到我都跟我说,以前看到那些不讲理的人会生气,现在不会了,心想那是“三季人”,就不往心里去了。其实还应更深入地想一想:既然人家本来就是“三季人”,你偏要跟人家争论“四季”,那么到底是人家的过错,还是你自己的过错呢?

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值