- 博客(3)
- 资源 (8)
- 收藏
- 关注
原创 深入探寻《Self-Attentive Sequential Recommendation》ICDM‘18
本文我们主要致力于解决以下几个问题:本文的motivation/contribution是什么?实验细节以及实验效果如何?具体的应用场景?本文存在什么不足?在本文的最后,我将针对以上问题简单谈谈自己的拙见,欢迎大家一起在评论区留言谈论。言归正传,带着上面四个问题,让我们一起探寻《Self-Attentive Sequential Recommendation》,SASRec背后的秘密!谈谈序列推荐由于自己是第一次给大家分享序列推荐的文章,所以本着对我自己的读者负责的态度,还是要花点篇.
2020-07-11 00:16:58 4531
原创 最近邻搜索神器——一文读懂局部敏感哈希LSH原理
什么是LSH?LSH主要用来解决高维空间中点的近似最近邻搜索问题,即Approximate Nearest Neighbor(ANN)。在实际的应用中我们所面对的数据是海量的,并且有着很高的维度。在对数据的各种操作中,查询操作是最常见的一种,这里的查询是指输入一个数据,查找与其相似的数据,那么怎样快速从海量高维数据中找到与某个数据最相似的数据,成为了一个难点。传统的哈希算法通过哈希函数建立哈希表,由哈希表我们能够得到O(1)的查找时间性能,传统哈希算法的关键在于,找到合适的哈希函数,将原始数据映射到相
2020-07-07 23:00:05 944
原创 Attention Is All You Need论文详解与理解
研究背景、动机深度学习做NLP问题的方法,大多基本上是先将句子分词,然后将每个词转化为对应的词向量序列,于是每个句子就都对应一个词嵌入矩阵X=(x1,x2,...,xt)X=\left(x_1,x_2,{...,x}_t\right)X=(x1,x2,...,xt),其中xix_ixi代表着第i个词的词向量,维度为d。因此,我们的问题就自然转化为如何编码这些序列信息了。在Transformer该论文提出之前,几乎所有主流的翻译模型或者NLP模型都是建立在复杂的循环神经网络(Recurrent N
2020-07-03 20:19:27 798
中国科学院大学深度学习课程实验作业——电影评论情感分类(代码+实验报告)
2021-03-17
保研/考研准备资料大礼包(经验汇总+个人陈述+个人简历+联系老师+面试+自我介绍+申请表+提交材料+推荐信)
2021-01-21
中国科学院大学深度学习课程实验作业——猫狗分类(代码+实验报告)
2021-01-14
中国科学院大学深度学习课程实验作业——电影评论情感分类(代码+实验报告)
2021-01-14
中国科学院大学深度学习课程实验作业——手写数字识别(代码+实验报告)
2021-01-14
中国科学院大学深度学习课程实验作业——自动写诗(代码+实验报告)
2021-01-14
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人