![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
RNN
西岸行者
问君能有几多愁,恰似一只鸡腿进不了口
展开
-
用一文来串起attention,transformer,seq2seq的知识点
前两天正沾沾自喜的稍稍看明白点RNN,结果随便搜了一下,比较醒目的关是不是RNN完全可以废弃了?就冒了出来,仔细读来也不是危言耸听,神经网络在序列建模方面,经历了RNN,seq2seq,attention,transformer一系列的进化,现在的情况是RNN(lstm,gru)已经变成了入门玩家的学习基础了。原创 2020-10-14 17:48:57 · 234 阅读 · 0 评论 -
卷积虽好,处理序列还有更好的RNN
学习RNN LSTM,并用一个小例子介绍LSTM参数量如何计算原创 2020-10-09 16:55:13 · 373 阅读 · 1 评论