Convolutional Neural Networks for Sentence Classification阅读笔记及复现

本文介绍了Text-CNN模型的网络结构,包括Embedding Layer、Convolution Layer、Max-Pooling Layer和SoftMax分类层。重点讨论了卷积层如何捕获局部位置信息,并通过Max-Pooling处理可变长度输入。实验部分展示了在多个文本分类任务上的应用和效果,证明预训练词向量和适当微调的重要性。
摘要由CSDN通过智能技术生成


卷积神经网络相比于DNN和RNN有以下优点:

  1. 能捕获局部的位置信息
  2. 能够方便的将不定长的输入转换成定长输入接入到DNN网络中
  3. 相比于RNN模型计算复杂度低,在很多任务中取得不错的效果

TEXT-CNN

一篇比较老的论文了, 但是很经典, 在一些简单的分类任务上效果也还不错.

1. 网络结构

Embedding Layer

word embedding层, 没什么好说的

Convolution Layer

输入层通过卷积操作得到若干个Feature Map,卷积窗口的大小为 h×k ,其中 h 表示纵向词语的个数,而 k 表示word vector的维数。通过这样一个大型的卷积窗口,将得到若干个列数为1的Feature Map。

Max-Pooling Layer

接下来的池化层,文中用了一种称为Max-over-time Pooling的方法。这种方法就是简单地从之前一维的Feature Map中提出最大的值,文中解释最大值代表着最重要的信号。可以看出,这种Pooling方式可以解决可变长度的句子输入问题(因为不管Feature Map中有多少个值,只需要提取其中的最大值)。最终池化层的输出为各个Feature Map的最大值们,即一个一维的向量。

SoftMax分类Layer

池化层的一维向量的输出通过全连接的方式,连接一个Softmax层,Softmax层可根据任务的需要设置(通常反映着最终类别上的概率分布)。最终实现时,我们可以在倒数第二层的全连接部分上使用Dropout技术,这样做的好处是防止隐藏层单元自适应(或者对称),从而减轻过拟合的程度。

2. 参数与超参数

  • sequence_length
    CNN输入输出都是固定的,对句子做定长处理,超过的截断,不足的补0.
  • filter_size_list : 多个不同size的filter, 一般设置[2, ,3, 4]或者[3, 4, 5]
  • feature map: 100
  • batch_size: 50
  • dropout: 0.5
  • optimizer: Adadelta

3. 变种

模型结构有几个小的变种:

  • CNN-rand
    设计好 embedding_size 这个 Hyperparameter 后, 对不同单词的向量作随机初始化, 后续BP的时候作调整.
  • static
    pre-trained词向量固定,训练过程不再调整
  • non-static
    pretrained vectors + fine-tuning
  • multiple channel
    static与non-static搭两个通道

4. 实验

数据集

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值