短文本分类的 ResLCNN 模型

收稿时间: 2017-06-30; 采用时间: 2017-10-20

Journal of Software

在 He 等人研究中,34 层的 CNN 比 18 层的 CNN 效果差.同样,在 Donahue 等人研究中也提到,双层的 LSTM 模型效果是最好的,多层的 LSTM 效果出现退化现象.为解决此退化问题,He 等人[8]提出了残差网络.受此启发,为了提高模型性能。

ResLCNN模型以word2vec和Glove词向量构成的句子矩阵作为输入。第1层根据隐藏层和记忆单元获取文本时序特征,随后

用残差层包含两层LSTM,接着CNN使用多个卷积核进行进行卷积运算,提取最优卷积特征,通过softmax分类,

类.ResLCNN 模型为了获取更复杂的特征,将 3 层 LSTM 结合 CNN 构建深层网络,同时在第 1 层 LSTM 输出与 CNN 层输入之间添加恒等映射,构建残差层缓解训练模型阶段低网络层梯度消失问题.

模型结构图:


数据集:影评数据集MR

该数据集包括相同数量的正面和负面评论,共 10 662 条,每条评论都是一条短句.实验中训练集、验证集和测试集的比例是 8:1:1.

模型参数:

LSTM大小均为300,CNN卷积核大小为3,数量100,relu和sigmoid,使用bn和dropout操作,

利用adadelta梯度下降法。


论文思路不错所以整理一下,利用到了ResNet的思想,并将LSTM与CNN结合起来,将LSTM的输出输入到CNN。

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值