nlp cs224n 学习笔记1 Introduction and Word Vectors

注:个人笔记,价值有限,不建议逗留。

word embedding 的意义和目的?

通过一种映射,将自然语言中的单词,嵌入到n维欧式空间中,得到可以用数学语言表达并用计算机计算的“词向量”。
同时我们希望,在语言中语义相近的词汇,在映射后的空间中仍具有相似性(表现为距离相近)
在这里插入图片描述

分布式语义

如何学习具有我们想要特性的word embedding呢?
一个重要的思路是分布式语义:
一个单词的含义由频繁的出现在其附近的单词所决定

有一定道理,就好像我们在学语言时,一个单词的具体含义,经常通过给出的若干例句来记住和理解。
在这里插入图片描述

Skip-Gram

进行word embedding的方法应该有很多,今天学习了 skip-gram
这里是一个不错的教程

模型结构:
在这里插入图片描述
个人感觉结构和思想都很像自编码器。
输入层:对词典进行one-hot编码

如何得到某个单词的词向量?
网络的隐层的输出就是最终的 词向量。
但实际中,并不需要进行前向推理,更像是查表,因为:
在这里插入图片描述

模型是如何学到有效的词向量的?
基于分布式语义的合理假设,设定输出层负责预测所有词表中的单词出现在当前输入的单词周围的概率。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值