Word2Vec学习(自用)

本文介绍了Word2Vec的基本概念,包括词嵌入、Skip-gram和CBOW模型。重点讲解了Skip-gram模型的简单形式及其网络结构,阐述了Word2Vec通过降维将词语转换为词向量的过程。同时提到了训练技巧如hierarchical softmax和negative sampling,以及Word2Vec在现代语言模型如BERT中的应用。
摘要由CSDN通过智能技术生成

一. 引言 

本文仅作简要概述,萌新可扫盲用。不涉及算法推导过程,具体算法推导过程请关注参考文献2。笔者也会将自己的学习推导过程附在文章后,有兴趣者可以留言交流,共同学习。

二. 参考资料总结

1. Mikolov原论文(两篇):

《Efficient Estimation Of Word Representations In Vector Space》

贡献:

《Distributed Representations Of Sentences And Documents》

贡献:

2. Xin Rong的论文:

《Word2Vec Parameter Learning Explained》

(重点推荐!理论完备;易懂;直击要害;)

【R.I.P,Rong Xin于2017年驾驶飞机失事,缅怀;感谢为科研奉献了如此优秀的论文】

3. [NLP] 秒懂词向量Word2vec的本质 - 穆文的文章 - 知乎 https://zhuanlan.zhihu.com/p/26306795(本文主要借鉴、学习路线;感觉写的有很多勘误,作者学习后予以改进)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值