深度学习
alwaysyxl
这个作者很懒,什么都没留下…
展开
-
循环神经网络(Recurrent Neural Network, RNN)
总结自吴恩达老师的网易深度学习工程师微专业1. 前向传播at=g(a)(Waaa&lt;t−1&gt;+Waxx&lt;t&gt;+ba)a^{t}=g^{(a)}(W_{aa}a^{&lt;t-1&gt;}+W_{ax}x^{&lt;t&gt;}+b_a)at=g(a)(Waaa<t−1>+Waxx<...原创 2018-10-20 21:58:04 · 222 阅读 · 0 评论 -
GRU,LSTM
总结自吴恩达老师的网易深度学习工程师微专业介绍GRU之前,首先我们先直观的理解一下梯度消失(Gradient Vanishing)问题。RNN在NLP中具有很大的应用价值,但是其存在一个很大的缺陷,那就是梯度消失的问题。例如下面的例句中:The cat, which already ate …,was full;The cats, which already ate …,were ...原创 2018-10-21 22:16:57 · 239 阅读 · 0 评论