Item2Vec算法介绍

       最早看到Item2vec是微软研究院的这篇文章(https://arxiv.org/vc/arxiv/papers/1603/1603.04259v2.pdf),本文主要是对这篇论文做一些介绍,Item2vec主要思想是借鉴了Word2Vec,并且采用SGNS(Skip-gram + Negative Sampling)的方法来生成物品向量,最后只需要计算当前浏览的物品与其它物品的向量相似度,从而找到相似物品。一般像电商网站的“看了也看”、“买了也买”、“相似物品”模块比较适合应用Item2Vec算法,因为缺少用户信息,另外用户也可能是未登陆状态,另外从实际效果来看,Item2Vec不比SVD差,甚至还好一些。

       下面主要介绍下Skip-gram + Negative Sampling,Skip-gram的思想是用中心词预测周围的词,优化目标是中心词存在的情况下周围词存在的概率最大,从而得到所有词的向量,公式如下:

    其中p(wj |wi)表示中心词wi存在的情况下周围词wj存在的概率。

    在词库数量10万-100万的量级下,计算p(wj |wi)的代价会非常大,因此采用负采样来减少计算。对每个正样本,根据3/4指数分布采样N个负样本,新的计算公式如下:

最后介绍下基于SGNS的物品相似度计算方法,一般计算物品之间的余弦相似度。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
word2vec是一种经典的词嵌入算法,最早由Google的Mikolov提出。它通过将词转化为向量的形式,实现了对词之间关系的定量度量和联系挖掘。word2vec算法有两种基本模型,分别是CBOW和Skip-Gram模型。CBOW模型通过上下文词预测目标词,而Skip-Gram模型则是通过目标词预测上下文词。这两种模型都是基于神经网络的训练方法,通过训练大量的语料库来学习词向量表示。这些词向量可以捕捉到词之间的语义和语法关系,从而可以应用于其他自然语言处理任务中。如果你对word2vec算法的原理感兴趣,可以参考\[1\]中的论文和\[2\]中的基础知识介绍。 #### 引用[.reference_title] - *1* *3* [深度学习方法(十七):word2vec算法原理(1):跳字模型(skip-gram) 和连续词袋模型(CBOW)](https://blog.csdn.net/xbinworld/article/details/90416529)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [学习:word2vec原理](https://blog.csdn.net/czp_374/article/details/86752999)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值