为什么只看重结果_表扬时应该注重过程,而不是只看重结果

读书时,大家对这个场景是不是很熟悉:

每次考完试,回到家,大人都会问考得怎么样,如果说考得不好,那么大人就会不高兴,如果说考得好,那么大人脸色就笑眯眯的。

特别是拿到成绩的那天,如果能够考个好成绩,肯定会得到这样的表扬,不错,还挺聪明的,很厉害。但是如果考得很差,很可能会引来一顿痛骂,你怎么这么笨,这么简单的都不会,你看谁家的孩子又考了多少分,你让我的脸往哪里搁?

怎么样,是不是熟悉的配方,熟悉的味道。

但是这样带来的结果是怎样的呢?

前面肯定的表扬肯定会让孩子自豪,认为自己真的很聪明,因为自己聪明才能得到高分,考出好的成绩。而后者很容易产生自卑的心理,在大人一次次的训斥中逐渐怀疑自己。

这样的结果是什么呢?

在《终生成长》这本书里告诉我们,这两种教育方式都对孩子的成长不利,过度的肯定会让孩子产生自负的心理,而过度的否定会让孩子产生自卑的心理。

1 为什么会这样呢?

在别人只给予肯定的时候,会让孩子产生一种错觉,这种能力是天生的,天生就比别人聪明,比其他人厉害。

他没有关注为了这个过程付出了多少努力,所以会让孩子忽略了努力的过程,只看到结果。

就像小时,如果有人表扬自己学习成绩好,听到后肯定是洋洋得意,认为自己真的比其他人聪明,自己虽然不努力,也能有这样的成绩。

这样的结果是什么呢?

孩子为了得到更多的夸赞,想得到更好的成绩,而更好的成绩需要做自己擅长的题目,自己会的才能让自己获得高分,以至于在面对有挑战或者自己没有把握的时候,会恐惧,也会选择放弃。

而那些被过度否定孩子,开始怀疑自己的能力,于是遇到自己不会的题目就会告诉自己,我很笨,这题不会很正常,我是不会解答出来的,这才真的我。

一次次这样否定自己之后,孩子真的会在成长的路上停滞不前,遇到一点难题就退缩,不愿意思考,也不愿意迈出有挑战的一步。

最后,情况越来越糟,成为家长嘴里的笨孩子。

2 遇到具体问题应该具体分析

有位叫伊丽莎白的9岁小孩,非常热爱体操运动,她对体操运动有着天然的优势,她身材修长,柔韧性好,充满活力。

在她第一次参加比赛的时候,她很自信自己能够赢得彩带,甚至想好了彩带挂在哪里。

在比赛中,她的表现不错,但是她却没有赢得比赛,她一条彩带都没有得到,虽然她很优秀,但是这件事对她打击很大,她面对结果很沮丧。

但是她的父母没有肯定或者否定她的结果,而是告诉她:“我知道你的感受,你对比赛寄予了很大的希望,而且拿出了自己最好的表现,但是依然没能赢,你一定感到很失望。但是你要知道,你并没有付出100%的努力。有很多女孩练习体操时间都比你长,而且比你努力。如果这是你真心想要的东西,那么你就要全身心地为此付出努力。”

伊丽莎白听从了父亲的话,花更多的时间练习,特别在自己薄弱的地方下苦功夫。在下一次比赛到来的时候,在80个人参加的比赛中,她赢得了5个个人项目的彩带,并且得到了这次比赛的总冠军。

在她失败的时候,她的父母没有否定她的努力,但同时也告诉她其他人也同样努力。

当你以为自己优秀的时候,一定要明白一点,还有人付出了更多的努力。

所以在面对一个结果的时候,不应该只凭结果就判断好还是不好,因为后面的路还很长,谁也不知道下一刻会发生什么,但是为此付出的努力却不能忽视。

这次失败了,可能是付出的努力不够,需要继续努力。

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值