真正厉害的人,你永远察觉不到他的情绪

每个人都会有自己的情绪,但有些人的表达方式是比较简单粗暴,不要让自己,栽在自己的脾气中。

 

 

张飞之死,其实很憋屈:他不是在战场上慷慨赴死,而是被自己的情绪杀死了。

听到好兄弟关羽被害,他抑制不住哀伤,血泪粘襟。随后借醉鞭打士兵,要他们日夜赶造兵器,想要马上为兄弟报仇。最后部下范疆与张达忍无可忍,只好趁张飞又再醉酒时,将他刺杀在军营里

没人否认张飞能力很大。但能力这么大的人,最后却得不到一个理想的结局

控制不住自己情绪的人,其实能力再大也无济于事

 

 

 

01

最该掌握的能力是控制自己

现代跟古代当然不一样。古代的人优秀如张飞,不懂管理情绪至少还可以上沙场杀敌,只不过结局不一定好

现代不讲暴力讲脑力,如果让感性情绪控制了理性思维,有可能连混下去都难

真正优秀的人,以做事为主,伤害大局的情绪摆在一边。控制情绪,才能成就最大的能力。

 

 

 

02

真正聪明人是怎样的

如果你是对的,你没必要发脾气;如果你是错的,你没资格去发脾气。这才是真正的智慧,可惜大多数人没有想透彻

泰国有位传奇人物告诫:人只要脾气好,凡事就会好。人的一生都在学做人,学习做人是一辈子的事,没有办法毕业的。人生不管是士农工商,各种人等,只要学习就有进步

 

 

 

03

自信的人,不靠情绪表达自己

能干的人并不是没有情绪,他们只是不被情绪所左右。“怒不过夺,喜不过予”,源于内在的自信与魄力

《教父》里面有句著名台词:“永远不要让家族外的人知道你的想法。”情绪易于波动、喜怒轻易形于色的人,与其说是坦率,不如说是缺乏内心历练

老教父的大儿子桑尼违背了父亲的教条,冲动鲁莽最终被人射成马蜂窝。而小儿子麦克不动声色,凭借着自己的判断,在医院保护了父亲,在餐厅报复了凶手,甚至甘愿在离家万里的西西里隐藏经年

在该隐忍的时候隐忍,在该爆发的时候爆发,是一个人成熟的标志

 

 

 

04

再控制不住情绪,也要学着控制

林肯做总统的时候,陆军部长向他抱怨受到一位少将的侮辱。林肯建议对方写一封尖酸刻薄的骂信作为回敬

信写好了,部长要把信寄出去时,林肯问:“你在干嘛?“

“当然是寄给他啊。”部长不解地问

“你傻啊,快把信烧了。”林肯忙说:“我生气的时候也是这么做的,写信就是为了解气。如果你还不爽,那就再写,写到舒服为止!“

心里产生负面情绪,需要疏导发泄,像林肯就用了写信的方法

 

 

中国古人的境界要高一点,比如像孔子,直接就是“恕”字待之,恕己恕人。做不到这么高境界,就找一件心爱的事倾泻所有情绪

清代作家李渔的方法是写字:“予无他癖,唯有著书。忧籍以消,怒籍以释。“

郑板桥更加直接。当他受官场挤压、郁郁不得志时,就提笔画竹。画完以后,心理舒坦了,画艺也越发纯熟,一箭双雕

没有人天生就懂得控制情绪。真正能干的人,是时刻留意不要让自己栽在坏情绪中

 

 

 

转载于:https://www.cnblogs.com/dgm2088/p/9786799.html

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值