推荐系统与Attention机制——详解Attention机制

本文介绍了Attention机制,起源于人类视觉注意力,用于模型捕捉重要信息。它在自然语言处理、计算机视觉和推荐系统等领域有广泛应用。推荐系统中,如DIN模型,通过Attention机制捕捉用户在不同场景下的多峰兴趣,提高推荐精准度。
摘要由CSDN通过智能技术生成

什么是Attention机制?

Attention机制的本质来自于人类视觉注意力机制。人们在看东西的时候一般不会从到头看到尾全部都看,往往只会根据需求观察注意特定的一部分。

简单来说,就是一种权重参数的分配机制,目标是协助模型捕捉重要信息。具体一点就是,给定一组<key,value>,以及一个目标(查询)向量query,attention机制就是通过计算query与每一组key的相似性,得到每个key的权重系数,再通过对value加权求和,得到最终attention数值。

 

 

 

 

 

 

 

优缺点:

优点:

  1. 一步到位获取全局与局部的联系,不会像RNN网络那样对长期依赖的捕捉会收到序列长度的限制。
  2. 每步的结果不依赖于上一步,可以做成并行的模式
  3. 相比CNN与RNN,参数少,模型复杂度低。(根据attention实现方式不同,复杂度不一)

缺点:

  1. 没法捕捉位置信息,即没法学习序列中的顺序关系。这点可以通过加入位置信息,如通过位置向量来改善,具体可以参考最近大火的BERT模型。
  2. </
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值