MD-RNN的个人理解

本文深入探讨了Multi-Dimensional Recurrent Neural Networks(MD-RNN)的前向传播和反向传播过程。通过图示和伪代码,解释了MD-RNN如何在每个隐层单元上连接所有输入数据点,并且根据输入特征的非零值回溯之前的隐层激活值。此外,文章还讨论了MD-RNN在图像处理中可能的多方向递归影响,超越传统二维递归连接的可能性。
摘要由CSDN通过智能技术生成

论文:“Multi-Dimensional Recurrent Neural Networks

论文地址:https://arxiv.org/pdf/0705.2011.pdf
这篇博客是在本人阅读论文后的一些自己的理解记录,如有错误请大家多多指教。

首先给出的是前向传播和反向传播的图示:


在进行前向传播时,当前隐层接收到当前输入样本和在每个维度上之前一步的激活值(之前一步的隐层激活值)。

接下来直接给出前向传播和反向传播的伪代码:



我个人对于前向传播的理解如下:

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值