- 博客(12)
- 收藏
- 关注
原创 Transformer 在美团搜索排序中的实践
美团搜索是美团 App 连接用户与商家的一种重要方式,而排序策略则是搜索链路的关键环节,对搜索展示效果起着至关重要的效果。目前,美团的搜索排序流程为多层排序,分别是粗排、精排、异构排序等,多层排序的流程主要是为了平衡效果和性能。其中搜索核心精排策略是 DNN 模型,美团搜索始终贴近业务,并且结合先进技术,从特征、模型结构、优化目标角度对排序效果进行了全面的优化。近些年,基于 Transformer[1] 的一些 NLP 模型大放光彩,比如 BERT[2] 等等,将 Transformer 结构应用于搜索
2021-03-29 17:51:01 122
原创 职场中晋升最快的人具有什么特点?隐藏不住的四大特征
我们在职场打拼,最想得到的是什么?无非是升职、加薪。这两项才是你职场中,最有成就感的事。什么梦想、诗与远方那都是后话。人只有解决了生理需求、心理需求,才会有空间和能量去思考心灵的追求。所以晋升才是每个职场人梦寐以求的果实与动力。职场中晋升最快的人具有什么特点?为什么他们能快人一步摘取果实?让我们一起来探讨,别人到底做对了什么?难道自己就比别人笨一点,还是别人的运气好一点?分析别人成功的法码,别让自己再次错失良机。一、独到见解,意志坚定。拥有自己的主见,并表达出来,看...
2021-03-19 11:34:52 271 2
原创 word2vec是如何得到词向量的?
word2vec是如何得到词向量的?最近在做文本的聚类,有老师傅推荐了word2vec,说是可以得到类似[0.792, −0.177, −0.107, 0.109, −0.542, ..…显示全部关注者844被浏览125,647关注问题写回答邀请回答好问题 111 条评论分享登录一下,更多精彩内容等你发现贡献精彩回答,参与评论互动登录查看全部 21 个回答阿北微软程序员,算法专家。公众号:Hello阿北12 人赞同了.
2021-03-06 14:46:45 695
原创 小白看Word2Vec的正确打开姿势|全部理解和应用
有个用心的读者最近做了一篇论文,想知道Word2Vec的相关理论和应用方法,作为一个有强迫症的我,去翻查了大量的文献资料,决定从Word2Vec的上下文来温习一下这个NLP的基础以及做相关的知识体系的基本构建,为做Word2Vec的朋友提供一个参考。内容目录:Word2Vec可以做什么用? Word2Vec定义?为什么需要他? Word2Vec是如何工作的? Word2Vec的知识大纲 CBOW模型 Pytorch implementation Skip Gram 模型 Gensim
2021-03-06 14:40:44 1491
原创 word2vec是如何得到词向量的?
前言word2vec是如何得到词向量的?这个问题比较大。从头开始讲的话,首先有了文本语料库,你需要对语料库进行预处理,这个处理流程与你的语料库种类以及个人目的有关,比如,如果是英文语料库你可能需要大小写转换检查拼写错误等操作,如果是中文日语语料库你需要增加分词处理。这个过程其他的答案已经梳理过了不再赘述。得到你想要的processed corpus之后,将他们的one-hot向量作为word2vec的输入,通过word2vec训练低维词向量(word embedding)就ok了。不得不说word2ve
2021-03-06 14:37:19 1394
原创 word2vec如何得到词向量
word2vec是如何得到词向量的?这个问题比较大。从头开始讲的话,首先有了文本语料库,你需要对语料库进行预处理,这个处理流程与你的语料库种类以及个人目的有关,比如,如果是英文语料库你可能需要大小写转换检查拼写错误等操作,如果是中文日语语料库你需要增加分词处理。这个过程其他的答案已经梳理过了不再赘述。得到你想要的processed corpus之后,将他们的one-hot向量作为word2vec的输入,通过word2vec训练低维词向量(word embedding)就ok了。不得不说word2vec是个很
2021-03-06 10:12:48 293
原创 NLP—word2vec词向量简介
NLP处理的数据都是文字,而文字是无法直接被计算机计算的,于是人们想出了使用独热编码的方式来表示单词。<span style="font-size:16px;">浙江 [0,0,0,0,0,0,0,1,0,......0,0,0,0,0,0,0]江苏 [0,0,0,0,1,0,0,0,0,......0,0,0,0,0,0,0]安徽 [0,0,0,1,0,0,0,0,0,......0,0,0,0,0,0,0]天津 [0,0,0,0,0,0,0,0,0,......1,0,0,0,0,
2021-03-06 10:05:46 231
原创 秒懂词向量Word2vec的本质
[NLP] 秒懂词向量Word2vec的本质你会在本文看到:提纲挈领地讲解 word2vec 的理论精髓 学会用gensim训练词向量,并寻找相似词你不会在本文看到神经网络训练过程的推导 hierarchical softmax/negative sampling 等 trick 的理论和实现细节3.1. 什么是 Word2vec?在聊 Word2vec 之前,先聊聊 NLP (自然语言处理)。NLP 里面,最细粒度的是 词语,词语组成句子,句子再组成段落、篇章、文档...
2021-03-06 10:00:58 486
原创 图神经网络学习一(浅谈embedding)
最近在做图神经网络(GNN)有关的项目,这个图就是数据结构里面的那个图。在学习的过程中接触到了embedding。由于我以前做的比较多的都是卷积神经网络,而embedding常用于自然语言处理(NLP),因此卡在了这个地方,并花了些时间去了解什么是embedding从词说起假如我们有6个词:男人,女人,苹果,西瓜,肠粉,螺蛳粉。如果用one-hot编码来表示,就是六维向量。男人:(1,0,0,0,0,0)女人:(0,1,0,0,0,0)…螺蛳粉:(0,0,0,0,0,1)用one-hot表
2021-03-05 22:20:26 3033
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人