embedding
文章平均质量分 91
xiewenbo
互联网广告行业呆过几年,旅游公司呆过几年,对机器学习,自然语言处理,图像识别,个性化推荐 有兴趣
展开
-
tensorflow embedding_lookup
the idea of the neural network above is to supply our input target words as one-hot vectors. Then, via a hidden layer, we want to train the neural network to increase the probability of valid context...转载 2018-04-11 12:36:21 · 1046 阅读 · 0 评论 -
不一样的论文解读:2018 KDD best paper「Embeddings at Airbnb」
https://www.leiphone.com/news/201811/k90ZmGaOCRSftqqR.htmlAirbnb 的 Real-time Personalization using Embeddings for Search Ranking at Airbnb 一文拿了今年 KDD ADS Track 的最佳论文,和 16 年 Google 的 W&D 类似,并不 fa...转载 2019-05-21 15:39:24 · 363 阅读 · 0 评论 -
论文阅读:Airbnb-Real-time Personalization using Embeddings for Search Real-time Personalization
提纲解决的问题 方法 实验 疑问与启发1.解决的问题本文要解决两个问题:针对短租市场,大部分的用户很少会多次预定同一类型的房间;房间分时段的,只能在某段时间内被某一个用户预订;大部分用户预订酒店是低频事件,更不用说是在同一个地方预订酒店。 实时个性化2.方法作者考虑到用户在预订酒店之前有大量的搜索、点击、联系商家等行为,可以利用这些信息来构建用户预订的房间与候选商品之间...转载 2019-05-21 15:38:27 · 665 阅读 · 0 评论 -
Graph Embedding方法
https://zhuanlan.zhihu.com/p/64200072一是因为Graph Embedding是推荐系统、计算广告领域最近非常流行的做法,是从word2vec等一路发展而来的Embedding技术的最新延伸; 二是因为已经有很多大厂将Graph Embedding应用于实践后取得了非常不错的线上效果。那我们今天就一起讨论一下Graph Embedding的主要做法和前沿应...转载 2019-05-21 14:38:37 · 928 阅读 · 0 评论 -
Word2Vec Tutorial(2)- Negative Sampling 负采样
1.http://mccormickml.com/2016/04/19/word2vec-tutorial-the-skip-gram-model/2.http://mccormickml.com/2017/01/11/word2vec-tutorial-part-2-negative-sampling/3.https://blog.csdn.net/auto59/article/d...转载 2019-05-15 14:10:54 · 644 阅读 · 0 评论 -
词向量与Embedding究竟是怎么回事?
词向量,英文名叫Word Embedding,按照字面意思,应该是词嵌入。说到词向量,不少读者应该会立马想到Google出品的Word2Vec,大牌效应就是不一样。另外,用Keras之类的框架还有一个Embedding层,也说是将词ID映射为向量。由于先入为主的意识,大家可能就会将词向量跟Word2Vec等同起来,而反过来问“Embedding是哪种词向量?”这类问题,尤其是对于初学者来说,应该是...转载 2019-04-12 10:47:09 · 959 阅读 · 0 评论 -
What's the difference between shared embedding and embedding with multi-hot input in Keras
Suppose the input is a index of 3 items such as (1,2,3), I want to get 3 embedding vector corresponding to the 3 items and then get the average of 3 vectors. Here are two method:method 1:item1_in...转载 2019-03-21 11:03:33 · 846 阅读 · 0 评论 -
从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史
出处:https://zhuanlan.zhihu.com/p/49271699Bert最近很火,应该是最近最火爆的AI进展,网上的评价很高,那么Bert值得这么高的评价吗?我个人判断是值得。那为什么会有这么高的评价呢?是因为它有重大的理论或者模型创新吗?其实并没有,从模型创新角度看一般,创新不算大。但是架不住效果太好了,基本刷新了很多NLP的任务的最好性能,有些任务还被刷爆了,这个才是关键。...转载 2019-03-14 23:02:07 · 182 阅读 · 0 评论 -
常见的图embedding的方法
参考代码:https://github.com/keras-team/keras/blob/master/examples/pretrained_word_embeddings.py转:https://blog.csdn.net/k284213498/article/details/83474972keras.layers.embeddings.Embedding(input_dim,...转载 2018-06-08 17:38:09 · 7014 阅读 · 0 评论 -
What is an Embedding in Keras?
Keras documentation isn't clear what this actually is. I understand we can use this to compress the input feature space into a smaller one. But how is this done from a neural design perspective? Is it...转载 2018-04-11 15:43:57 · 213 阅读 · 0 评论 -
word2vec原理(二) 基于Hierarchical Softmax的模型
转处:https://www.cnblogs.com/pinard/p/7243513.html转载 2019-05-30 19:52:44 · 216 阅读 · 0 评论