ABCNN基于注意力的卷积神经网络用于句子建模--模型介绍篇

本文介绍了ABCNN模型,一种结合注意力机制的卷积神经网络,用于句子建模。ABCNN基于BCNN,通过在输入层、卷积层输出和池化层引入注意力机制,以增强模型的表达能力。文章详细阐述了BCNN的基本结构,以及ABCNN的三个变种:ABCNN-1在输入层添加注意力,ABCNN-2改进池化层,ABCNN-3则综合前两者。实验表明,ABCNN在多个数据集上表现出优秀的性能。
摘要由CSDN通过智能技术生成

本文是Wenpeng Yin写的论文“ABCNN: Attention-Based Convolutional Neural Network for Modeling Sentence Pairs”的阅读笔记。其实该作者之前还发过一篇“Convolution Neural Network for Paraphrase Identification”。ABCNN是基于之前发的这篇论文加入了注意力机制。说到基于注意力的CNN,我们之前介绍过一篇Multi-Perspective CNN的论文。该论文也是在别的论文的基础上加入了注意力机制,但其实Attentin机制一般用于RNN模型会有比较好的效果,CNN的话也可以用==

相比这两篇Attention-based的论文,会发现,ABCNN提出了三个层面的Attention方法,有助于更加全面的理解attention在不同层面所能带来的不同作用。下面我们就来介绍一下该论文的模型。

BCNN

BCNN就是ABCNN模型的基础,即没有添加Attention的模型结构。如下图所示:

这里写图片描述

1, 输入层:
就是将输入句子进行padding后转化成词向量即可。
2,卷积层:
当一开始看到这张结构图的时候我以为采用的是per-dim的卷积

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值