- 博客(5)
- 收藏
- 关注
原创 WORD TRANSLATION WITHOUT PARALLEL DATA ICLR2018
WORD TRANSLATION WITHOUT PARALLEL DATA ICLR2018Alexis Conneau∗ † ‡ , Guillaume Lample∗ † § , Marc’Aurelio Ranzato† , Ludovic Denoyer§ , Herve J ´ egou ´ †现在词翻译都依赖平行语料,本模型则是不需要,本无监督模型的效果甚至在语言差距大...
2019-06-10 17:49:22 513
翻译 Generative Adversarial User Model for Reinforcement Learning Based Recommendation System
Generative Adversarial User Model for Reinforcement Learning Based Recommendation System ICML 2019摘要:本文是推荐系统和强化学习结合起来的应用:主要是2点:1我们开发了一个生成式的对抗学习(GAN)公式来模拟用户的行为动态,并恢复她的奖励功能。通过联合最小二乘优化算法,同时...
2019-06-08 00:06:24 1600
原创 Mapping Users across Networks by Manifold Alignment on Hypergraph AAAI 2014
Mapping Users across Networks by Manifold Alignment on Hypergraph使用超图的概念学习用户embedding1 与传统的半监督流形对齐方法不同,本文采用超图方法对高阶关系进行建模。对于一个网络中的目标用户,该算法根据其成为相应用户的可能性对另一个网络中的所有用户进行排序。此外,基于用户名比较的方法可以很容易地融入到算法中,进一步...
2019-06-04 21:15:27 517
原创 GRAPH2SEQ: GRAPH TO SEQUENCE LEARNING WITH ATTENTION-BASED NEURAL NETWORKS
Introduction提出了一种新的基于注意力的图序列学习神经网络模型Graph2Seq。Graph2Seq模型遵循传统的编解码器方法,包含两个主要组件,一个图形编码器和一个序列解码器。本文提出的图形编码器旨在学习表达性节点嵌入,并将其重新组合成相应的图形嵌入。为此,灵感来自最近的图表示学习方法(汉密尔顿et al ., 2017),我们建议归纳基于神经网络学习节点从节点属性通过聚合社区信息...
2019-06-02 16:59:36 2250 1
原创 ICLR2018 无监督翻译学习 UNSUPERVISED NEURAL MACHINE TRANSLATION
UNSUPERVISED NEURAL MACHINE TRANSLATIONINTRODUCTION句子L1和L2使用共同的encoder模型,拥有各自的decoder模型,学习过程是源语言emcode到隐空间中,decoder解码到回去自己的源语言,损失就是编码解码之后的语言和源语言的距离,L1和L2编码的参数相同,所以翻译的过程是语言L1编码,然后解码到L2中。...
2019-06-02 11:21:46 482
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人