Attention机制是对Seq2Seq结构的提升。
可以看到,整个Attention注意力机制相当于在Seq2Seq结构上加了一层“包装”,内部通过函数 score 计算注意力向量 ,从而给Decoder RNN加入额外信息,以提高性能
图来自于
注意力机制简单理解
最新推荐文章于 2024-08-08 16:38:28 发布
Attention机制是对Seq2Seq结构的提升。
可以看到,整个Attention注意力机制相当于在Seq2Seq结构上加了一层“包装”,内部通过函数 score 计算注意力向量 ,从而给Decoder RNN加入额外信息,以提高性能
图来自于