NLP(九)Attention

Attention模块需要使用keras的自定义写法
简要的说Attention模块时将n个时刻的LSTM输出结合算出一个向量输入到下一个RNN中
自己之前在看恩达的课程的时候,画了张图
在这里插入图片描述

class AttentionLayer(Layer):
    def __init__(self, **kwargs):
        self.init = initializations.get('normal')
        super(AttentionLayer, self).__init__(**kwargs)

    def build(self, input_shape):
        self.W = self.init((input_shape[-1],))
        self.trainable_weights = [self.W]
        super(AttLayer, self).build(input_shape)
        
    def call(self, x, mask=None):
        e = K.tanh(K.dot(x, self.W)
        ai = K.exp(e)
        weights = ai/K.sum(ai, axis=1).dimshuffle(0,'x')
        
        weighted_input = x*weights.dimshuffle(0,1,'x')
        return weighted_input.sum(axis=1)

    def get_output_shape_for(self, input_shape):
        return (input_shape[0], input_shape[-1])
# 基本使用和其他的layer一致
l_lstm = Bidirectional(LSTM(100, return_sequences=True))(embedded_seq)
attenion= AttentionLayer()(l_lstm)

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值