介绍
人工智能的注意力机制是受到人类大脑中注意力分配方式的启发而提出的一种模型结构,旨在使机器学习系统能够像人类一样,在处理信息时根据重要性分配不同的注意力。注意力机制的核心思想是,在信息处理过程中,不同部分的输入数据可以有不同的权重,从而可以更加有效地处理复杂的输入信息。
个人理解:比如你正在看这个文章,那么你首先看到的是标题,然后是内容,其他你非关注点之外的都会被忽略,比如这里别人发消息给你。
注意力机制的主要作用包括:
提高模型对输入信息的理解能力:通过关注输入数据中的关键部分,注意力机制可以帮助模型更好地理解输入的含义,从而提高了模型的性能。
解决长距离依赖问题:在传统的神经网络结构中,当输入序列较长时,信息在不同层之间的传递会变得困难。注意力机制可以帮助模型更好地捕捉远距离的依赖关系,从而提高了模型在处理长序列数据时的效果。
实现可解释性:通过注意力权重,可以清晰地看到模型在处理数据时所关注的重要部分,这样可以增加模型的可解释性,帮助用户理解模型的决策过程。
注意力机制通过为每个输入部分分配不同的权重,使得模型 在处理输入信息时能够更加灵活、高效地分配注意力,从而提高了模型的表达能力和泛化能力。这一机制在自然语言处理、计算机视觉等领域得到了广泛应用,并取得了显著的成果。
最后
注意力机制来源于人类的视觉处理系统,比如当我们正在看此篇文章时候,那么你更多关注你正在看的内容,其它都被忽略了。像Transformer、LSTM、RNN、CNN、GRU等框架都广泛应用。
参考文章:
https://zhuanlan.zhihu.com/p/53036028
https://lulaoshi.info/deep-learning/attention/attention.html#attention%E6%9C%BA%E5%88%B6
https://www.cnblogs.com/luv-gem/p/10712256.html
https://transformers.run/back/attention/
https://zhuanlan.zhihu.com/p/618938678?utm_id=0
https://baike.baidu.com/item/%E6%B3%A8%E6%84%8F%E5%8A%9B%E6%9C%BA%E5%88%B6/22768534?fr=ge_ala
相关视频:
https://www.bilibili.com/video/BV1Go4y1V7SD/?spm_id_from=trigger_reload&vd_source=7d0e42b081e08cb3cefaea55cc1fa8b7
相关论文:
https://arxiv.org/pdf/1802.05751.pdf
https://arxiv.org/pdf/1706.03762.pdf