Memory Networks and Gates(记忆网络和门控单元)

在这里插入图片描述
Memory Networks
正如该方法名:memory,关于神经网络的以及功能LSTM,GRU等方法能够实现一部分记忆功能了,但大量的实验和研究者们都证明了LSTM在更长时间内在处理数据的时间结构方面不够有效,并不能达到记录更多更长的记忆效果。所以对比起来,记忆网络更像是想要尝试通过一些记忆组件和方法来保存一些场景或者状态的信息,以实现更为长期记忆功能(实际上这种大量的先验知识对推理是非常重要的,所以某种程度上来说,memory就是一个知识的外部存储器)。
在这里插入图片描述
所以就外部存储器的角度来说,memory需要完成两个操作:1write 2read。
对于write, 书写操作分为擦除和添加两部分,公式如下,w,e,a分别是权重,擦除和添加向量,t是当前时刻,j是写入磁头的位置:
M t j ( i ) = M t − 1 j ( i ) [ 1 − w t j ( i ) e t j ] + M t j ( i ) a t j M_t^j(i)=M_{t-1}^j(i)[1-w^j_t(i)e^j_t]+M_t^j(i)a^j_t Mtj(i)=Mt1j(i)[1wtj(i)etj]+Mtj(i)atj

  • 首先需要把输入向量按上式进行编码
  • 然后存入到记忆库的slot中。分为直接插入,忘记某一部分,或者记忆重新组织三种方法

对于read:

  • 根据当前的输入,选择最合适的记忆进行抽取出来(计算输入和记忆的匹配程度,用这个“程度”加权输出向量),代表了一次推理过程。(如果是多次推理即是把每次的输出当下一次的输入用,类似深层神经网络一样)
    ∑ i = 1 N w j ( i ) = 1 , 0 < w j ( i ) < 1 , ∀ i ∈ [ 1 , N ] \sum_{i=1}^Nw^j(i)=1,0<w^j(i)<1,\forall i \in [1,N] i=1Nwj(i)=1,0<wj(i)<1,i[1,N]
  • 通过这些权重值,就可以预测返回得到一个输出
    r j = ∑ i = 1 N w j ( i ) M j ( i ) r^j=\sum^N_{i=1}w^j(i)M^j(i) rj=i=1Nwj(i)Mj(i)

训练的损失函数则是采用margin ranking loss,这个与支持向量机的损失函数类似,即是选出最合适中间结果,和得到最好的预测输出。

Multi Memory Layers
如果要建立多层memory,即从如下图的左侧到右侧,大致思路不变,需要注意的是层与层之间可以有多种联系方式,使用门控单元进行记忆选择是很自然的结果:

  • Scalar based Addition: M t j = a M t j + b M t j − 1 M^j_t=aM^j_t+bM^{j-1}_t Mtj=aMtj+bMtj1
  • Global Gated Addition: α t j = σ ( z T t a n h ( W j M t j + U j M t j − 1 ) ) \alpha_t^j=\sigma(z^Ttanh(W_jM^j_t+U_jM^{j-1}_t)) αtj=σ(zTtanh(WjMtj+UjMtj1)) M t j = M t j + α t j M t j − 1 M^j_t=M^j_t+\alpha^j_tM^{j-1}_t Mtj=Mtj+αtjMtj1
  • Location-wise Gated Addition: α t j = t a n h ( W j M t j + U j M t j − 1 ) ) \alpha_t^j=tanh(W_jM^j_t+U_jM^{j-1}_t)) αtj=tanh(WjMtj+UjMtj1)) M t j = M t j + α t j ⊙ M t j − 1 M^j_t=M^j_t+\alpha^j_t\odot M^{j-1}_t Mtj=Mtj+αtjMtj1
  • Recurrent Learning based Addition: M t j = ϕ ( W j M t j + U j M t j − 1 ) M^j_t=\phi (W_jM^j_t+U_jM^{j-1}_t) Mtj=ϕ(WjMtj+UjMtj1)
  • Attention based Addition: α t j = s o f t m a x ( M t j ( M t j − 1 ) T F \alpha_t^j=softmax(\frac{M^j_t(M^{j-1}_t)^T}{\sqrt F} αtj=softmax(F Mtj(Mtj1)T M t j = M t j + α t j M t j − 1 M^j_t=M^j_t+\alpha^j_tM^{j-1}_t Mtj=Mtj+αtjMtj1

在这里插入图片描述
多层的End-To-End Memory Networks实现代码:

#构建一个memory network
def build_memory(self):
        self.global_step = tf.Variable(0, name="global_step")

		#如图中的A,B,C三个地方的embedding
        self.A = tf.Variable(tf.random_normal([self.nwords, self.edim], stddev=self.init_std))
        self.B = tf.Variable(tf.random_normal([self.nwords, self.edim], stddev=self.init_std))
        self.C = tf.Variable(tf.random_normal([self.edim, self.edim], stddev=self.init_std))

        # Temporal Encoding
        self.T_A = tf.Variable(tf.random_normal([self.mem_size, self.edim], stddev=self.init_std))
        self.T_B = tf.Variable(tf.random_normal([self.mem_size, self.edim], stddev=self.init_std))

        # m_i = sum A_ij * x_ij + T_A_i
        Ain_c = tf.nn.embedding_lookup(self.A, self.context)
        Ain_t = tf.nn.embedding_lookup(self.T_A, self.time)
        Ain = tf.add(Ain_c, Ain_t)

        # c_i = sum B_ij * u + T_B_i
        Bin_c = tf.nn.embedding_lookup(self.B, self.context)
        Bin_t = tf.nn.embedding_lookup(self.T_B, self.time)
        Bin = tf.add(Bin_c, Bin_t)

		#number of hops
        for h in xrange(self.nhop):
            self.hid3dim = tf.reshape(self.hid[-1], [-1, 1, self.edim])
            Aout = tf.matmul(self.hid3dim, Ain, adjoint_b=True)
            Aout2dim = tf.reshape(Aout, [-1, self.mem_size])
            #计算权重P
            P = tf.nn.softmax(Aout2dim)

            probs3dim = tf.reshape(P, [-1, 1, self.mem_size])
            Bout = tf.matmul(probs3dim, Bin)
            Bout2dim = tf.reshape(Bout, [-1, self.edim])

			#层与层之间的处理
            Cout = tf.matmul(self.hid[-1], self.C)
            Dout = tf.add(Cout, Bout2dim)

            self.share_list[0].append(Cout)

			#首层,尾层和中间层
            if self.lindim == self.edim:
                self.hid.append(Dout)
            elif self.lindim == 0:
                self.hid.append(tf.nn.relu(Dout))
            else:
                F = tf.slice(Dout, [0, 0], [self.batch_size, self.lindim])
                G = tf.slice(Dout, [0, self.lindim], [self.batch_size, self.edim-self.lindim])
                K = tf.nn.relu(G)
                self.hid.append(tf.concat(axis=1, values=[F, K]))

总之,记忆网络是一个组件形式的模型,每个模型相互对立又相互影响。每个组件没有固定的模型,可以是传统的模型,也可以是神经网络,所以独立的每层可以搭积木的拼接起来完成长时间记忆的任务。

Gates
所谓的门控其实就是对于两个或多个部分,都有一个权重矩阵W来适时分配重要程度,还可以再通过一个激活函数得到。
o u t = σ ( W A + ( 1 − W ) B ) out=\sigma(WA+(1-W)B) out=σ(WA+(1W)B)同样的,在RNN变体系列中门控单元用的很多,主要起一些信息过滤的作用。门控的好处在于它是可以全自适应的学习方式,即每一时刻节点的权重都由当前的输入决定(如LSTM等的“门”,往往就是当前数据和上一时间点隐藏单元的输入共同决定),从而信息累积的时间尺度也可以随着输入序列而动态改变。通过memory记忆了长时间的信息后,使用门做处理是很自然的事情,所以在前面处理多层之间的融合方法中门控单元很适用。

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值