- 博客(2)
- 资源 (12)
- 收藏
- 关注
原创 几种Attetnion机制
主要列一下参考文献,便于以后再了解~从Seq2seq到Attention模型到Self Attention(一)从Seq2seq到Attention模型到Self Attention(二)Attention (Query,Key,Value)一般Attention: Query来自Decoder中,Key=Value来自Encoder中,一般有乘法Attention和加法Attention...
2018-10-18 11:07:12 771
转载 RNN详解及BPTT详解
版权声明:转载请注明出处 https://blog.csdn.net/zhaojc1995/article/details/80572098 本文部分参考和摘录了以下文章,在此由衷感谢以下作者的分享! https://zhuanlan.zhihu.com/p/28...
2018-10-13 21:04:19 19391 4
Neural Network and Deep Learning.pdf
2017-09-07
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人