NLP(九)Attention

Attention模块需要使用keras的自定义写法
简要的说Attention模块时将n个时刻的LSTM输出结合算出一个向量输入到下一个RNN中
自己之前在看恩达的课程的时候,画了张图
在这里插入图片描述

class AttentionLayer(Layer):
    def __init__(self, **kwargs):
        self.init = initializations.get('normal')
        super(AttentionLayer, self).__init__(**kwargs)

    def build(self, input_shape):
        self.W = self.init((input_shape[-1],))
        self.trainable_weights = [self.W]
        super(AttLayer, self).build(input_shape)
        
    def call(self, x, mask=None):
        e = K.tanh(K.dot(x, self.W)
        ai = K.exp(e)
        weights = ai/K.sum(ai, axis=1).dimshuffle(0,'x')
        
        weighted_input = x*weights.dimshuffle(0,1,'x')
        return weighted_input.sum(axis=1)

    def get_output_shape_for(self, input_shape):
        return (input_shape[0], input_shape[-1])
# 基本使用和其他的layer一致
l_lstm = Bidirectional(LSTM(100, return_sequences=True))(embedded_seq)
attenion= AttentionLayer()(l_lstm)

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
自然语言处理中的attention机制是一种用于模型关注输入序列中不同位置的信息的方法。它可以帮助模型在处理自然语言任务时更加准确地捕捉到关键信息。有几种常见的attention机制,包括强制前向attention、Soft attention、global attention、动态attention、Hard attention和local attention。 Soft attention是一种常用的attention机制,它为输入序列中的每个单词计算一个单词匹配概率。这样可以使模型关注到每个单词的重要性,并根据这些概率对输入和输出进行对齐。 相比之下,Hard attention则是一种更为直接的方法。它通过从输入序列中直接选择某个特定的单词,并将其与目标序列的单词对齐。其他输入序列中的单词则被认为与之没有对齐关系。通常情况下,Hard attention主要应用于图像处理中,当图像的某个区域被选中时,权重为1,其余区域则为0。 另外,还有一种称为local attention的机制,它可以看作是半软半硬attention。在local attention中,模型会关注输入序列的局部区域,并根据局部信息进行对齐。 总的来说,attention机制在自然语言处理中起着重要的作用,它能够帮助模型更好地理解和利用输入序列中的信息,从而提高模型的性能。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [自然语言处理中的Attention机制总结](https://blog.csdn.net/hahajinbu/article/details/81940355)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [自然语言处理之Attention大详解(Attention is all you need)](https://blog.csdn.net/wuzhongqiang/article/details/104414239)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值