自然语言处理学习笔记6:向量距离之高级的词向量表示

斯坦福大学在三月份开设了一门“深度学习与自然语言处理”的课程:CS224d: Deep Learning for Natural Language Processing,授课老师是青年才俊 Richard Socher,以下为相关的课程笔记。

第三讲:高级的词向量表示(Advanced word vector representations: language models, softmax, single layer networks)

推荐阅读材料:

  1. Paper1:[GloVe: Global Vectors for Word Representation]
  2. Paper2:[Improving Word Representations via Global Context and Multiple Word Prototypes]
  3. Notes:[Lecture Notes 2]
  4. 第三讲Slides [slides]
  5. 第三讲视频 [video]

以下是第三讲的相关笔记,主要参考自课程的slides,视频和其他相关资料。

回顾:简单的word2vec模型

  • 代价函数J

屏幕快照 2015-07-02 上午8.52.16

其中的概率函数定义为:

屏幕快照 2015-07-02 上午8.55.11

我们主要从内部向量(internal vector)$v_{w_I}$导出梯度

计算所有的梯度

  • 我们需要遍历每一个窗口内的中心向量(center vector)的梯度
  • 我们同时需要每一个外部向量(external vectors)$v^'$的梯度
  • 通常的话在每一个窗口内我们将更新计算所有用到的参数
  • 例如在一个窗口长度为1的句子里:I like learning
  • 第一个窗口里计算的梯度包括:内部向量$v_{like}$, 外部向量$v^'_I$及$v^'_{learning}$
  • 同理更新计算句子的下一个窗口里的参数

计算所有的向量梯度

  • 我们经常在一个模型里把所有的参数集合都定义在一个长的向量$\theta$里
  • 在我们的例子里是一个d维度的向量及一个长度为V的词汇集:

屏幕快照 2015-07-02 上午10.39.50

梯度下降

  • 要在整个训练集上最小化代价函数$J(\theta)$需要计算所有窗口里的参数梯度
  • 对于参数向量$\theta$来说需要更新其中每一个元素:

屏幕快照 2015-07-02 上午10.56.36

这里$\alpha$是步长从矩阵的角度来看参数更新:

屏幕快照 2015-07-02 上午10.58.25

梯度下降相关代码

屏幕快照 2015-07-02 上午11.08.29

随机梯度下降(SGD)

  • 对于上述梯度下降的方法,训练集语料库有可能有400亿(40B)的token和窗口
  • 一轮迭代更新需要等待很长的时间
  • 对于非常多的神经网络节点来说这不是一个好方法
  • 所以这里我们使用随机梯度下降(SGD):在每一个窗口计算完毕后更新所有的参数

屏幕快照 2015-07-02 上午11.28.29

词向量的随机梯度下降

  • 但是在每一个窗口里,我们仅有2c-1个词,这样的话$\delta_{\theta}J_t(\theta)$非常稀疏

屏幕快照 2015-07-02 下午3.46.22

我们也许仅仅应该只更新那些确实存在的词向量解决方案:或者保留词向量的哈稀或者更新词嵌入矩阵L和$L^'$的固定列

屏幕快照 2015-07-02 下午3.51.49

很重要的一点是如果你有上百万个词向量并且在做分布式训练的话就不需要发送大量的更新信息了

PSet1

  • 归一化因子的计算代价很大

屏幕快照 2015-07-13 上午8.45.25

因此在PSet1你们将实现skip-gram模型主要的思路:对一对实际的词对(一个中心词及一个窗口内的其他词)和一些随机的词对(一个中心词及一个随机词)训练二元逻辑回归模型

PSet1: The skip-gram model and negative sampling

屏幕快照 2015-07-13 上午9.00.37

这里k是我们所使用的负例采样(negative sampling)的样本数Sigmoid函数:

屏幕快照 2015-07-13 上午9.02.54
屏幕快照 2015-07-13 上午9.03.01

所以我们最大化第一个log处两个词的共现概率更进一步比较清晰的公式:

屏幕快照 2015-07-13 上午9.07.13

最大化在中心词周边真实词对的概率;最小化中心词周边随机词对的概率

屏幕快照 2015-07-13 上午9.12.09

这里unigram分布U(w)被赋予了3/4幂次方,这样可以保证一些出现比较少的词可以被尽可能多的抽样

What to do with the two sets of vectors?

  • 我们从所有的向量v和$v^'$中得到了L和$L^'$
  • 这两个都获得了相似的共现信息,如何有效的利用着两个向量集?一个简单有效的方法,对它们进行加和

屏幕快照 2015-07-13 上午10.49.14

在GloVe中对许多超参数进行了探究:  Global Vectors for Word Representation (Pennington et al. (2014))

如何评测词向量

  • 和一般的NLP评测任务相似:内部 vs 外部(Intrinsic vs extrinsic)
  • 内部评测:
    • 在一个特定的子任务中进行评测
    • 计算迅速
    • 有助于理解相关的系统
    • 不太清楚是否有助于真实任务除非和实际的NLP任务的相关性已经建立起来
  • 外部评测:
    • 在一个真实任务中进行评测
    • 需要花很长的实际来计算精度
    • 不太清楚是否是这个子系统或者其他子系统引起的问题
    • 如果用这个子系统替换原有的系统后获得精度提升-->有效(Winning!)

词向量的内部评测:

  • 词向量类比:语法和语义

屏幕快照 2015-07-13 上午11.56.54

通过评测模型在一些语义或语法类比问题上的余弦相似度距离的表现来评测词向量去除一些来自于搜索的输入词问题:如果信息符合但不是线性的怎么办?

词向量的内部评测例一

屏幕快照 2015-07-13 下午12.07.51

存在的问题:不同的城市可能存在相同的名字

词向量的内部评测例二

屏幕快照 2015-07-13 下午12.11.42

词向量的内部评测例三

屏幕快照 2015-07-13 下午12.12.20

词向量的内部评测例四

屏幕快照 2015-07-13 下午12.12.27

类比评测和超参数

  • 目前为止最细致的评测: GloVe 词向量

屏幕快照 2015-07-13 下午12.28.03

非对称上下文(仅有左侧的单词)并不是很好

屏幕快照 2015-07-13 下午2.46.53

最佳的向量维度:300左右,之后变化比较轻微但是对于不同的“下游”任务来说最佳的维度也会不同对于GloVe向量来说最佳的窗口长度是8训练的时间约长是否有帮助:对于GloVe来说确实有助于

屏幕快照 2015-07-13 下午3.00.16

更多的数据是否有帮助?维基百科的数据比新闻数据更相关

屏幕快照 2015-07-13 下午3.04.17

词向量的内部评价

屏幕快照 2015-07-13 下午3.12.23

相关性评测结果:

屏幕快照 2015-07-13 下午3.13.16

如何应对歧义问题(But what about ambiguity?)

  • 也许你寄希望于一个词向量能捕获所有的语义信息(例如run即是动车也是名词),但是这样的话词向量会被辣向两个方向
  • 这篇论文对此有相应的描述:Improving Word Representations Via Global Context And Multiple Word Prototypes(Huang et al. 2012)
  • 解决思路:对词窗口进行聚类,并对每个单词词保留聚类标签,例如$bank_1$, $bank_2$等

屏幕快照 2015-07-13 下午3.31.41

词向量的外部评价

  • 一个例子NER(named entity recognition):好的词向量会对实际任务有直接的帮助
    • 命名实体识别(NER):找到人名,地名和机构名

    屏幕快照 2015-07-13 下午5.22.22

下一步:如何在神经网络模型中使用词向量

简单的单个词的分类问题

  • 从深度学习的词向量中最大的获益是什么?
    • 有能力对单词进行精确的分类
      • 国家类的单词可以聚和到一起-->因此可以通过词向量将地名类的单词区分出来
    • 可以在其他的任务中将单词的任意信息融合进来
      • 可以将情感分析(Sentiment)问题映射到单词分类中:在语料库中寻找最具代表性的正/负例单词

The Softmax

  • 逻辑回归 = Softmax分类在给定词向量x的情况下获得y类的概率

屏幕快照 2015-07-13 下午5.48.23

The Softmax - 细节

  • 术语:损失函数(Loss function) = 代价函数(Cost function) = 目标函数(Objective function)
  • Softmax的损失(Loss): 交叉熵(Cross Entropy)
  • 如何计算p(y|x): 取W的$y^'$行乘以含x的行

屏幕快照 2015-07-14 上午8.30.56

计算所有的$f_c$, c = 1, 2, ... , C归一化计算Softmax函数的概率

屏幕快照 2015-07-14 上午8.35.15

Softmax和交叉熵误差

  • 目标是最大化正确分类y的概率
  • 因此,我们可以最小化改函数负的对数概率

屏幕快照 2015-07-14 上午8.46.34

因此,如果有多个类别我们可以在总的误差函数中叠加多个交叉熵误差

背景:交叉熵 & KL散度

  • 假设分布是:p = [0,...,0,1,0,...0], 对应计算的概率分布是q,则交叉熵是:

屏幕快照 2015-07-15 下午2.21.59

因为p是one-hot的缘故,则上述公式剩余的则是真实类的负的对数概率交叉熵可以写成熵和两个分布的 KL散度之和

屏幕快照 2015-07-15 下午2.25.07

在我们的case里p是0(即使不是0也会因为它是固定的对梯度没有固定),最小化交叉熵等价于最小化KL散度KL散度并非是一个距离函数而是一个对于两个概率分布差异的非对称的度量

屏幕快照 2015-07-15 下午2.40.22

维基百科:KL散度是两个概率分布P和Q差别的非对称性的度量。 KL散度是用来 度量使用基于Q的编码来编码来自P的样本平均所需的额外的位元数。 典型情况下,P表示数据的真实分布,Q表示数据的理论分布,模型分布,或P的近似分布。

简单的单个单词分类

  • 例子:情感分析
  • 两个选择:仅仅训练softmax权重W或者同时训练词向量
  • 问题:训练词向量的优点和缺点是什么
  • Pro: 更好的适应训练数据
  • Con: 更差的泛化能力

训练的词向量的情感分享可视化
屏幕快照 2015-07-15 下午2.51.12

继续“打怪升级”:窗口分类(Window classification)

  • 单个的单词没有上下文信息
  • 通过对窗口中的中心词进行分类同时考虑窗口中的上下文
  • 可能性:Softmax 和 交叉熵误差 或者 最大边界损失(max-margin loss)
  • 我们将在下一讲中探索这些问题(next class)

注:原创文章,转载请注明出处及保留链接“我爱自然语言处理”:http://www.52nlp.cn

本文链接地址:斯坦福大学深度学习与自然语言处理第三讲:高级的词向量表示

本条目发布于 2015年07月15号。属于 机器学习深度学习自然语言处理分类,被贴了  Deep LearningDeep Learning公开课Deep NLPDLgloveKL散度KL距离NERRichard SocherSGDsoftmaxword vectorsword2vecwordnet交叉熵公开课共现矩阵单词分类命名实体识别情感分析斯坦福大学机器学习梯度下降深度学习深度学习与自然语言处理深度学习技术深度学习模型神经网络自然语义处理自然语言处理计算机视觉词向量词向量评测词嵌入语义词典随机梯度下降 标签。 作者是52nlp

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值