Attention-Based SeriesNet论文读后感

前提—SeriesNet

SeriesNet是包含LSTM和DC-CNN两个子网络的混合神经网络,能有效解决非线性、非稳态、以及未知依赖的时间序列的预测问题。但是,其有以下缺点:

  • 每一层需要训练的参数量非常大,导致计算效率低
  • 没有考虑学习时间特征的attention机制
  • CNN和RNN的conditioning方法并不具体

由此,提出了Attention-Based Seriesnet模型。

Attention-Based SeriesNet

Attention-Based SeriesNet 在SeriesNet的基础上主要有以下改变:

  • 分别使用GRU, DDSTCNS(dilated depthwise separable temporal convolution)替代 LSTM, DC-CNN,降低神经网络层的参数
  • 利用SeriesNet的注意力机制,在 lightweight RNN-based hidden state attention module(HASM) 和 CNN-based conolutional block module(CBAM)
  • 在残差连接块中使用SELU激活函数替代RELU激活函数

优点:

  • 减少了参数量,减小计算复杂度,增加模型训练效率
  • 提升了模型预测准确率

模型结构

在这里插入图片描述
RNN子网络Condition输入数据( y ∈ R i ∗ T y \in R^{i*T} yRiT)维度的转换过程:
使用GRU网络:
\quad Condition->Fltten: y ∈ R i ∗ T y \in R^{i*T} yRiT -> y ∈ R 1 ∗ v y \in R^{1*v} yR1v
\quad Flatten->FC: y ∈ R 1 ∗ v y \in R^{1*v} yR1v -> y ∈ R 1 ∗ m y \in R^{1*m} yR1m
使用LSTM网络:
\quad Condition->Fltten: y ∈ R i ∗ T y \in R^{i*T} yRiT -> y ∈ R 1 ∗ v y \in R^{1*v} yR1v
\quad

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值