阅读理解实战(二)

BIDAF基线模型

模型介绍

在这里插入图片描述
详细介绍可参考BiDAF-【论文笔记】
模型的主要特点就是在于双向注意力流层的建立,考虑到问题到文本和文本到问题的两个方向的注意力计算。
模型的输入:文本和问题
模型的输出:通过point_net输出答案的开始和结束位置

对应模型的每一层
self._embed()    #问题和文本的embedding
self._encode()   #经过bi-lstm得到文本和问题的编码
self._match()    #match层 经过注意流层得到融入文本的问题编码和融入问题的文本编码
self._fuse()     #fuse层 上一步的输出再次输入到bilstm中得到文本编码
self._decode()   #返回答案的开始和结束位置

同时,我们可以在模型的双向注意流层后增加一个self-attention,考虑到文本和文本之间的联系。
在这里插入图片描述
在这里插入图片描述
不知道改的对不对

def _self_attn(self):
           match_p1_encodes=tf.contrib.layers.fully_connected(self.match_p_encodes,num_outputs=self.hidden_size)
            #fully_connected创建一个名为的变量weights,表示一个完全连接的权重矩阵,乘以它inputs产生一个 Tensor隐藏单位
            match_p2_encodes=tf.contrib.layers.fully_connected(self.match_p_encodes,num_outputs=self.hidden_size)
            #相似矩阵
            sim_matrix=tf.tanh(match_p1_encodes+match_p2_encodes)
            #文本到文本的注意力向量
            c2c_attn = tf.matmul(tf.nn.softmax(sim_matrix, -1), self.match_p_encodes)
            output= tf.concat([self.match_p_encodes, c2c_attn,
                                        self.match_p_encodes * c2c_attn,], -1)
            if self.use_dropout:
                self.match_p_encodes = tf.nn.dropout(output, self.dropout_keep_prob)

在这里插入图片描述

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值