零基础学nlp【4】 global attention 和 local attention(Effective approaches to attention-based neural mt)

零基础学nlp【4】 global attention 和 local attention

论文:Luong M T, Pham H, Manning C D. Effective approaches to attention-based neural machine translation[J]. arXiv preprint arXiv:1508.04025, 2015.

主要内容

基于之前的注意力机制之上,这篇论文提出了两个概念,分别是“global attention”和“local attention”。两者区别在于构建注意力机制时前者使用所有的输入时刻的encoder隐变量,而后者采用部分的encoder隐变量。同时,与之前的注意力机制不同在对decoder的输出进行预测时,不是采用前一时刻的隐变量预测,而是采用当前时刻的隐变量预测当前时刻的输出。文中还采用了三种不同的注意力机制获得方法,并进行了比较

细节

global attention

global attention的结构如下图
在这里插入图片描述
可以看出,模型通过现在时刻dec

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: "attention-based"的意思是基于注意力的,指的是一种基于人类注意力模式的算法或模型。例如,注意力机制可以用于自然语言处理中的机器翻译、文本摘要等任务。在这些任务中,模型将注意力集中在输入数据的不同部分,以便更好地理解和处理数据。 ### 回答2: 注意力 在机器习中,Attention-based即“基于注意力的”,主要指的是一种在深度习中基于注意力机制的模型。注意力机制的思想来源于人类对外界信息的处理过程,就像我们在处理一些任务时会有所关注和聚焦,忽略一些无关的信息,集中精力去处理关键信息一样。 在深度习中,Attention-based模型主要用于处理一些序列数据,例如自然语言生成、机器翻译、语音识别等任务。其主要思路是,在每个时间步中,通过计算输入序列中每个位置与当前时间步的关联程度,来决定该位置对当前输出的贡献程度。这样的处理方式可以使模型更好地处理长序列数据,从而提高其性能。 在自然语言处理中,Attention-based模型的应用非常广泛。例如,在机器翻译中,该模型可以根据当前要翻译的句子与其它语言中的句子的对应关系,来决定每个位置对最终翻译结果的影响程度,从而得到更加准确的翻译结果。在文本摘要方面,该模型也可以用于决定每个句子中的关键信息,从而生成更加准确的摘要内容。 总的来说,Attention-based模型是一种非常有用的处理序列数据的方法,其应用范围广泛,并且目前正在逐步得到应用和改进。 ### 回答3: Attention-based,即基于注意力的,是近年来人工智能领域内的一个热门研究方向。它在机器习和自然语言处理等领域中有着广泛的应用。 在自然语言处理中,attention-based技术是一种从输入文本中习到其最相关并最重要的部分的一种方法。该方法涉及到一种被称为“注意力机制”的技术,它可以为每个输入单词或输入序列分配一个注意力得分,以指示模型应该关注哪些部分。 通过Attention-based机制可以提高机器翻译、文本摘要、语言生成、序列标注等NLP任务的性能。例如,在翻译英语到德语的过程中,Attention-based机制先将英语句子的每个单词与德语句子的每个单词进行对齐,然后给每个源语言的单词赋予一个权重,以便决定哪些单词会得到优先翻译。 在图像识别领域,Attention-based技术也被广泛使用。当给深度习模型提供图像和标签时,Attention机制可以自动识别图像的重要部分,帮助模型准确地习图像和标签之间的关系。 总的来说,Attention-based技术的出现,使得机器习和自然语言处理等领域的效率和准确性得到了显著提升,同时也提高了模型的可解释性和解释性,让我们对这些黑盒子模型的理解更深入。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值