序列网络详解

1、循环神经网络详解(RNN)

在这里插入图片描述

公式:
o ( t ) = s o f t m a x ( h t ⋅ w h y + b y ) o(t)=softmax(h_t \cdot w_{hy}+b_y) o(t)=softmax(htwhy+by) h t = t a n h ( h t − 1 ⋅ w h h + x t ⋅ w x h + b h ) h_t=tanh(h_{t-1} \cdot w_{hh} + x_t \cdot w_{xh} + b_h) ht=tanh(ht1whh+xtwxh+bh)
参数默认:
W : w h h w_{hh} whh,h表征中间隐层记忆体维度
U : w x h w_{xh} wxh,x为输入层embedding维度(文本->分词->词典化->填充->embedding table lookup)
V : w h y w_{hy} why,连接隐层到输出层,比如手写数字识别,则有y=10(10分类任务)
参数量: h ∗ h h*h hh (W : w h h w_{hh} whh) + x ∗ h ( x*h ( xh(U : w x h w_{xh} wxh) + h ∗ 1 h*1 h1( b h b_h bh) + h ∗ y h*y hy(V : w h y w_{hy} why) = h ∗ ( h + x + 1 + y ) h*(h+x+1+y) h(h+x+1+y)
在这里插入图片描述
注意事项(容易误解的地方)
1、tanh不改变参数维度
2、softmax输出维度是y,y维度取决于实际任务

2、LSTM

在这里插入图片描述
在这里插入图片描述

3、seq2seq

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Ref:

  [1].LSTM理解
  [2].LSTM拆分图
  [3].简说Seq2Seq原理及实现
  [4].Tensorflow中的Seq2Seq全家桶

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值