关于RNN的几点疑问(杂乱)

关于RNN的理解

这是在读Understanding LSTM Networks这篇文章的时候,对一些之前不明白的点的理解和对一些地方的疑问的记录。希望以后看的更多相关的知识能够搞清楚。

  1. 图中的黄色的带有激活函数的长方形就是代表神经网络,即由激活函数包裹着的线性运算单元,即 t a n h ( ∑ ( W ∗ X + b ) ) tanh(\sum(W*X + b)) tanh((WX+b))
  2. “门"结构由一个"激活神经网络"和一个"点乘运算"构成。LSTM有三种门结构调节"cell state”(其实只有前两个门调节,后一个主要是用于output的。)。
  3. LSTM的关键就在于"cell state", " cell state"就像是传送带一样。在其上只做很小的线性运算。很容易保持不变。"门"结构能够对"cell state"移除或者添加信息。
  4. sigmoid 门结构输出一些值的范围在0~1之间的向量,意思是有多少部分应该被通过。如果是0向量,意味着信息都不能通过,如果是1向量,意味着全部都可以通过。
  5. 没搞清楚遗忘门是如何对"cell state(向量)"进行操作的。遗忘门是 c o n c a t ( h t − 1 , x t ) concat(h_{t-1},x_t) concat(ht1,xt)这个通过sigmoid之后产生一个-0~1数值的向量,代表对应的“cell state(向量)”哪些部分遗忘的不同程度,但它俩是如何运作的呢?遗忘门产生的向量是多长的?“cell state”的长度是多长的?两者一样长?答:两者从神经以规定的长度进入神经网络,但是出来的时候的长度有网络本身决定,与输入无关。
  6. 更新门由两部分组成,sigmoid部分决定哪些我们需要更新,(是不是这样,这里是根据当下的输入的情况,决定“cell state”中应该去掉哪些?)tanh部分决定(也是只根据当下的输入情况而不用看“cell state中的情况”,想法:那我能不能让cellstate也参与进来。。)哪些输入应该进入cell state中。最后结合sigmoid部分和tanh部分,得到的就是更新的情况。
  7. 最后一个门没看明白啥意思。。。(tanh的范围是从-1到1,这应该怎么理解?)
  8. 最后的输出是决定哪些应该被保留下来。其中sigmoid决定了输入中哪些是应该被保留下来的(之前的意思是sigmoid决定哪些要遗忘,但其实也是决定哪些要保留),然后tanh决定“cell state”中哪些是重要的(原句:a tanh layer creates a vector of new candidate values)然后结合两者确定了哪些作为output部分。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值