循环神经网络 RNN

        先来回顾一下潜变量(latent variable)自回归模型,

潜变量自回归模型

        RNN神经网络就是一个潜变量自回归模型,简单RNN和MLP很相似,就是多了W_{hh}h_{t-1},初始的隐藏状态h是全0。

单隐藏层的RNN语言模型

        怎么样衡量语言模型的好坏(evaluation metrics)?用平均交叉熵,困惑度。语言模型其实就是一个分类模型,假设字典大小m,有m个独一无二的token,每次预测下一个词是什么,就是一个m类的分类问题,因此可以用交叉熵。若语言序列长度n,则做n次预测,因此有n次交叉熵平均:

衡量语言模型的好坏

对困惑度的理解:困惑度等于2,表示候选词可能是2个词概率都很高,2个候选词选一个,困惑度为k大概是这k个词都有可能。

        RNN一般需要梯度剪裁来预防梯度爆炸。

g:所有层上的梯度放在一个向量里。g的长度是l2-norm, \theta 一般等于5或10,如果g长度很大,超过5或10,这个操作就会将其拉回5或10。

附1-RNN中一些维度:

一些维度梳理

 附2-潜变量和隐变量的区别:

隐变量和潜变量的区别
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值