首先感谢一下joey老师,通过深度之眼这个平台认识的
skip-gram听cs224n老师几次,总是没有完全理解,这次有了一个较好的认识。
先附上官方note
https://web.stanford.edu/class/cs224n/readings/cs224n-2019-notes01-wordvecs1.pdf
先大致写一下这个note里面有讲什么吧:
- Introduction to NLP.
- What is so special about NLP?
- 语言是用来传达意思的一个系统,word是用来映射到具体事物的一个符号
- Examples of tasks
- 容易
- 拼写检查
- 关键词搜索
- 找同义词
- 中等
- 从网站、文档中解析信息
- 难
- 机器翻译
- 语义分析,what is the meaning of the query?
- 共指消解
- 容易
- How to represent words?
- 最开始我们都是组建词典,然后用one-hot向量表示,
- 但这种方法忽视了词语之间的意义关联,所以新方法是用词向量,方便计算词与词之间的距离,内存也会减小。
- What is so special about NLP?