吴恩达深度学习第五课序列中RNN和CNN的结合

对于RNN和CNN怎么结合起来很感兴趣。在吴恩达深度学习课程第五课序列第三周的编程作业TriggerWord中,给出了一个RNN和CNN结合的例子。开头很难理解,仔细分析后终于明白了是怎么回事。记录下来。
下面是结构:
模型结构这个模型的输入是(batch,5511,101)的10sec声谱图。输入后经过Conv1D变成了(batch,1375,196)的输出。然后进入GRU。之前一直的疑惑在于,作为时间序列的声谱图为什么经过卷积后仍然可以作为时间序列进入GRU。
仔细分析后搞明白了原委,关键在于Conv1D,既然是1D的卷积,那么卷积核也是1D的,它采样的是15个时间步骤。换句话说,就是用196个卷积核从每个时间步骤周围的15个时间节拍中提取特征。由于Strides=4,实际上生成的1375个输出中,相邻结果的采样是有重叠的。由于是1D的卷积,卷积核也是一步一步向后移动,这样生成的1375个输出也是一个时间序列,从而可以有效连接GRU。

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值