Transformer注意力机制模型介绍

前言

Transformer是一个利用注意力机制来提高模型训练速度的模型。关于注意力机制可以参看这篇文章,trasnformer可以说是完全基于自注意力机制的一个深度学习模型,因为它适用于并行化计算,和它本身模型的复杂程度导致它在精度和性能上都要高于之前流行的RNN循环神经网络。

高层次的自我关注(Self-Attention at a High Level)

不要被我 "self-attention"这个词所迷惑,好像它是每个人都应该熟悉的概念。

我个人在阅读《注意力就是你所需要的一切》一文之前,从未接触过这个概念。让我们来提炼一下它的工作原理。

假设下面这句话是我们要翻译的输入句:

"动物没有过马路,因为它太累了。

这句话中的 "它 "指的是什么?是指街道还是指动物?这个问题对人类来说很简单,但对算法来说就不那么简单了。
在这里插入图片描述

当模型在处理 "它 "这个词时,自我注意力会让它把 "它 "和 "动物 "联系起来。

当模型处理每一个单词(输入序列中的每一个位置)时,自

  • 15
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

安替-AnTi

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值