注意的分类和规律以及生理机制


注意的定向反射:

定向反射是由情景的新异性所引起的一种反射,它为人和动物共有。最初的定向反射是一种无条件反射,当环境中出现某种新异刺激物时,人们不由得去注意它,这是无条件反射,

以后,在无条件性定向反射基础上,可以发展为条件性定向反射,如对周围环境的主动搜索,探究等。


一)注意的生理机制

 

巴甫洛夫用定向反射的理论对注意产生的生理机制作了深入的分析。

 

1.注意是有机体对外界刺激的一种定向反射

 

所谓定向反射,是指有机体对新异刺激物的一种应答性反应。定向反射是随着外界环境的变化而变化的。某一新奇刺激物从外界复杂环境中出现、增强、减弱、消失,以及在质上的变化都能引发有机体的定向反射。人生活在一个无时无刻不在变化的环境中,有机体要随着外界的变化而产生一种与之相适应的运动,把自己的有关感受器朝向新异刺激物,以探究它是什么。与此同时,原来正在进行的条件反射也被抑制了,这就是定向反射。这种反射活动是为了使人保证能够清晰地感受外界复杂环境中的刺激物,对刺激物作出恰当的反应,使有机体更好地适应变化无常的环境。

 

根据巴甫洛夫的观点,定向反射对有机体的生存具有重要的生物学意义。他说:“这种反射的生物学意义是极其巨大的。如果动物没有这种反射的话,那么可以说,它的生命每分钟都是处于千钧一发的危险境地。而我们人类的这种反射却发达得极其遥远。它最后表现为求知欲,创造了科学,使我们可以高度地并且无止境地来确定对周围世界的定向。”[苏]巴甫洛夫著,吴生林等译:《巴甫洛夫选集》,科学出版社1955年版,第111页。由此可见,注意是动物和人与周围世界保持平衡的基本生存条件。

 

2.注意是大脑皮层整合的结果

 

注意的生理机制是大脑中枢神经活动兴奋过程和抑制过程的相互诱导。巴甫洛夫说,在大脑两半球具有优势兴奋性的区域中最容易形成新的条件反射,顺利地形成分化,因此,在这时,可以说这是大脑两半球的创造性部分。

 

根据神经过程的相互诱导规律,一个优势兴奋中心在某个区域形成的同时,皮层上的其他与之相邻区域便处于抑制状态。与这一优势兴奋中心相联系的刺激物就成为有机体反映的内容。有机体对与抑制区域有关的刺激物则不反映。兴奋中心的兴奋越强,由它诱导出的相邻区域的抑制也就越强。这也就是为什么人能把注意集中于某一事物上,而对其他事物的反映就模糊的原因。

 

优势兴奋中心并非一成不变,随着外界刺激物的变化和人的主观要求可以从一个区域向另一个区域转移。原先处于优势兴奋状态的区域可以转为抑制状态;原先处于抑制状态的区域也可以转为兴奋状态,出现新的优势兴奋中心。人独具第二信号系统,所以,人和动物对外界刺激物的反映有着本质的不同。人能够通过词来调节大脑皮层的机能,使注意对象容易引起优势兴奋中心,而抑制无关刺激的影响和干扰。

 

(二)注意的外部表现

 

人在集中注意于某个对象时,常常伴随特定的生理变化和外部表现。注意最显著的外部表现有下列几种。

 

1.适应性运动

 

人在注意时,有关的感觉器官通常会朝向注意的对象,以便得到最清晰的印象。例如,人在注意听一个声音时,常常把耳朵转向或靠近声源;人在注意看一个物体时,常常把视线集中在该物体上。

 

2.无关动作停止

 

当注意力集中时,一个人就会自动停止与注意无关的动作。例如,当人们在看一部非常吸引人的话剧时,就像自己置身于情境当中,这时剧场会变得鸦雀无声。这主要是因为人们与看话剧无关的动作停止的缘故。

 

3.呼吸发生变化

 

人在集中注意时,呼吸会变得轻微而缓慢,出现吸气短促、呼气延长的情况。在注意紧张时,还会出现心跳加速,甚至出现呼吸暂时停歇的现象,即所谓“屏息”。

 

人们可以根据一个人的外部表现来推断他的注意情况。但是,有时注意的外部表现和注意的真实情况不一致。所以,要想真正了解一个人是否集中注意,还要根据其他方面的表现仔细分析,才能作出正确判断。


注意力机制是一种模拟人类注意力分配的技术,在自然语言处理领域被广泛应用。EMA(Encoder-Decoder with Multi-level Attention)是一种基于注意力机制的神经网络结构。 EMA的注意力机制原理如下: 1. 编码器(Encoder):输入序列经过编码器,将每个输入向量映射到一个高维空间的隐含表示。编码器可以是RNN(循环神经网络)或者Transformer等结构。 2. 解码器(Decoder):解码器生成输出序列的隐含表示,通常也是RNN或者Transformer。解码器通过对编码器的隐含表示进行“注意”,来决定每个输入向量在生成输出时的重要性。 3. 注意力计算:在解码器中,计算每个输入向量与输出序列当前位置的关联度。常用的注意力计算方法有点积注意力、缩放点积注意力和加性注意力等。 4. 权重分配:根据注意力计算结果,将关联度转化为权重,用于加权求和编码器的隐含表示。 5. 上下文向量生成:根据权重分配,对编码器的隐含表示进行加权求和,得到一个上下文向量,表示输入序列在当前位置对输出序列的贡献。 6. 输出生成:将上下文向量和当前位置的解码器隐含表示结合,生成当前位置的输出。 通过上述步骤,EMA模型可以在解码器中动态地关注输入序列中不同位置的信息,根据输入序列的不同部分对输出序列进行加权贡献,从而提高模型在生成任务中的性能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值