- 博客(2)
- 资源 (3)
- 收藏
- 关注
原创 Attention系列一之seq2seq传统Attention小结
正如标题所言,本文总结了一下传统的Attention,以及介绍了在seq2seq模型中使用attention方法的不同方式。 摘要 首先seq2seq分为encoder和decoder两个模块,encoder和decoder可以使用LSTM、GRU等RNN结构,这也是之前transformer没出来之前常用的经典方法。(主要选取了tensorflow官方教程和pytorch教程的例子作对...
2019-04-15 15:51:26 1476
原创 Santander Customer Transaction Prediction Kaggle比赛 小结
之前参加了kaggle的一个Santander Customer Transaction Prediction比赛,共有达9038支队伍参赛,一个号称寻找magic的比赛。参加比赛的的忘不了被magic这个词所支配的恐惧... 比赛链接 https://www.kaggle.com/c/santander-customer-transaction-prediction/overview...
2019-04-15 13:41:20 1506 2
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人