心理学的166个现象---之七

132.睡眠效应

    使坏印象随时间的流逝而消失邮递销售或上门销售中有这样一项保护消费者的制度,即使是已签定的买卖合同,只要超过了一定期限就会被自动失效。这个制度被称为冷却制(coolingoff)。这里的cooling”是指从一开始认为很好

到后来可能认为不怎么样的这段冷却期。反过来,起初认为 没有什么好处的坏印象也可能由于时间的流逝而消失,继而产生好印象。心理学称这种现象为睡眠效应。比如谈判陷入僵局即将破裂时,提出先吃午饭,等吃完后再做决定吧,让双方有一段冷静思考的时间。等重开谈判时,进展会异常顺利。谈判到达高潮时或刚刚进行劝说后,给予对方一段思考的时间,会收到良好的效果。因为劝说者与劝说内容的暂时分离会增加信息的可信度,使对方作出冷静的判断

133.顺序效应

    面试考官在对多名考生依次进行评定时,往往会受面试顺序的影响,而不能客观评定考生的情况。例如,一个考官在面试了三个很不理想的考生之后,第四位考生即使很一般,考官也会对他有比前三位好得多的印象。反之,如果一位考官连续面试了三位很理想的考生,即使第四个考生水平一般,考民也会认为他比实际的水平还要差。

134.Stroop效应

    对视觉选择性注意,研究者进行过大量的研究。Stroop效应是一种广泛使用的视觉任务。该效应是指,当词的印刷颜色与词的意义相冲突,而任务是命名印刷颜色时,被试的反应要慢。Stroop(1935)最早证明了这种效应。他发现,人们命名100个冲突词的墨水颜色,平均要花110秒的时间。相比之下,命名100个实心彩色正方形的墨水颜色,平均只需63秒。二者之间47秒的差异代表Stroop干扰量或Stroop效应量。同年青人相比,老年人有较大的Stroop干扰效应。

    Stroop干扰量已经被用作估计抑制系统效能的一种指标。干扰量越大,抑制效能越低。:

135.苏东坡效应

    古代有则笑话:以为解差押解一位和尚去府城。住店时和尚将他灌醉,并剃光他的头发后逃走。解差醒时发现少了一人,大吃一惊,继而一摸光头转惊为喜:" 幸而和尚还在。"可随之有困惑不解:"我在哪里呢?"这则笑话一定程度上印证了

诗人苏东坡的两句诗:"不识庐山真面目,只缘身在此山中。"即人们对"自我"这个犹如自己手中的东西,往往难以正确认;从某种意义讲,认识"自我"比认识客观现实更为困难。因此,"人贵有自知之明"。社会心理学家将人们难以正确认识"自我"的心理现象称之为"苏东坡效应"。

136.态度效应

     有关心理学和动物学专家做过一个有趣的对比实验:在两间墙壁镶嵌着许多镜子的房间里,分别放进两只猩猩。一只猩猩性情温顺,它刚进到房间里,就高兴地看到镜子里面有许多同伴对自己的到来都报以友善的态度,于是它就很快地和这个新的群体打成一片,奔跑嬉戏,彼此和睦相处,关系十分融洽。直到三天后,当它被实验人员牵出房间时还恋恋不舍。另一只猩猩则性格暴烈,它从进入房间的那一刻起,就被镜子里面的同类那凶恶的态度激怒了,于是它就与这个新的群体进行无休止的追逐和厮斗。三天后,它是被实验人员拖出房间的,因为这只性格暴烈的猩猩早巳因气急败坏、心力交瘁而死亡。

     启示:面对正在成长中的儿童,教师要真诚地热爱和关心孩子,要时时对他们报以友善、和蔼可亲的态度,因为教师的态度会成为孩子从镜子里看到的态度,会激发出孩子成倍友善、和蔼可亲的态度回应教师,教师友善、和蔼可亲的态度和儿童回应的态度共同营养双方的精神、温暖双方的心房、保健双方的心灵。

137.替代效应(substitutioneffect)

     替代效应是指,当消费者的满足水平保持不变时一种商品价格变化所引起的需求数量的改变。替代效应是指工资增加,人们用工作替代闲暇。这是因为在工资增加时,闲暇的代价高了。比如,每小时工资为5元时,闲暇一小时减少5元收入,每小时工资为10元时,闲暇一小时就减少10元收入。这时人们就会减少闲暇,增加工作。所以,替代效应引起劳动供给随工资上升而增加。

138.停滞效应

    心理学家丹尼斯和纳亚连在育婴堂儿童剥夺研究中得出,育婴堂儿童比正常受教育的儿童在学习上有一种停滞的趋势。这种趋势是由于剥夺环境而缺少学习机会造成的,不是学习潜能的发展停滞,这种现象被称为停滞效应。为矫正一个特定儿童的生活条件所必需做的事,是可以让他处于富于学习机会的环境。可见,能否提供一个丰富多彩的学习环境和他自己的学习机会,对儿童的身心发展是十分重要的。

139.通感效应

     通感效应是指艺术创作与鉴赏活动中,各种感觉相互渗透或者挪移的心理现象,将听觉转化为视觉与触觉。在小学音乐课堂教学中,可以根据音乐的特性把它与之相关的舞蹈、文学、美术及戏剧等艺术形式有机结合,将抽象的听觉艺术转化成更加直观生动的形式,发挥一切意向之间的交错与混合作用,从而让学生更好地理解、表现音乐作品。可以借助视觉、借助语言、借助场景等来发挥通感效应

     借助视觉——是指以图像、画面等方式使音乐成为可观察的形象。其中卡通片是一种非常典型的音画结合体。故事里的人物诙谐、生动,再辅之以形象、立体的音响效果,便成了孩子们的最爱。在学唱歌曲《井底的小青蛙》前,我让学生欣赏了卡通片《井底之蛙》,学生在体验了声像的完美结合后,那只单纯的小青蛙就在脑海中升成了,从而激发了对歌曲学习的无限兴趣。(如利用多媒体教学设备将带给学生更真实体验。)

     借助语言——指的是以语言文字描述表达音乐作品的内容情节。比如在歌曲《春天里》的歌唱教学前,我以这首乐曲为背景音乐,缓缓道来:当春天的阳光照耀在大地上,万物便宣告了它的苏醒。你看几只不知名的鸟儿正悠然自得的飞来,它们左顾右盼,蹦跳雀跃,似乎在欢迎春天的来临。远处的花而竟相开放,树芽也悄悄的探出了它的脑袋……”学生便如痴如醉地进入到了春天的世界,使他们对歌曲所表现的情景有了深刻的理解。

     借助场景——是指像戏剧舞台一样,用简单的道具和人物造型创设故事场景。比如在欣赏乐曲《在钟表店里》时,我用墙上贴了各种各样的钟表图,有些指针甚至是可以活动的,一旦配上了《在钟表店里》的音乐,学生便有了身临其境

的感觉。这是非常实用的一种形式,能更容易的使学生进入角色。

140.投射效应

    是指在人际交往中,认知者形成对别人的印象时总是假设他人与自己有相同的倾向,即把自己的特性投射到其他人身上。所谓以小人之心,度君子之腹,反射的就是这种投射效应的一个侧面。

    一般说来,投射可分为两种类型:一种是指个人没有意识到自己具有某些特性,而把这些特性加到了他人身上。例如:一个对他人有敌意的同学,总感觉到对方对自己怀有仇恨,似乎对方的一举一动都有挑衅的色彩。另一种是指个人意识到自己的某些不称心的特性,而把这些特性加到他人身上。例如:在考场上,想作弊就吃亏了。值得注意的是,这后一种投射往往会把自己某些不称心的特性,投射到自己尊敬的人、崇拜的人身上。其逻辑是,他们有这些特性照样有着光辉的形象,我有这些特性又有何妨。目的是通过这种投射重新估价自己的不称心的特性,以求得心理上的暂时平衡。

    在生活中,我们要注意防止心理上产生的偏差,造成我们决策上的失误。从众效应:从众心理为人们普遍具有,一般而言,与青年的大多数人保持一致的人更易为青年接受。喜欢标新立异、坚持已见的人虽然常常是时代精神的体现者和青年进步的带头人,但是他们的非从众行为要为青年中大多数成员所接受往往需要一个过程。他们在青年中的威信和被人尊重、信任度的提高,是随着过程的发展而逐步增加的,而在过程开始时所获得的感受往往是其反面。

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值