A Neural Probabilistic Language Model 论文阅读及实战

1.词向量介绍

  • 在NLP任务中,第一步首先将自然语言转化成数学符号表示。一般常用的词汇表示方法:one-hot表示,这种方法是将每个单词表示为一个很长的向量,这个向量的长度是词汇表的大小,其中绝大数元素是0,只有一个元素是1,如“男人”表示为:[0 0 0 1 0 0 0 0 0 0…],“男孩”表示为:[0 1 0 0 0 0 0 0 0 0…]。one-hot方法采用稀疏的方式进行单词的表示,非常的简洁。即为每个单词分配一个数字ID号,数字ID号对应于每个单词在词汇表中的索引。比如“国王”这个词语在词汇表中的索引是3,“男孩”这个词语在词汇表中的索引是1。
  • one-hot编码单词存在的问题:每个one-hot向量之间是相互正交的,任意两个单词之间是相互独立的,仅从one-hot表示出的词向量中无法看出两个单词之间是否有关系,即使是同义词也是相互独立。
  • 大多数NLP任务中,一般用到的词向量并不是one-hot表示出来的维数很长的词向量,而是采用一种"Distributed Representation"的表示方法来表示一种低维实数向量。这个词向量的表示一般是这样的:[0.792,-0.177,-0.107,0.109,-0.542,…],维度以5o和100维比较常见,这种向量的表示也不唯一。
  • Distributed Representation最大的贡献是让相关或相似的词,在距离上更接近。向量的距离可以是传统的欧式距离衡量,也可以使用余弦相似度cosine来衡量。

2.词向量的来历

  • Distributed representation 最早是 Hinton 在 1986 年的论文《Learning distributed representations of concepts》中提出的。Distributed representation 用来表示词,通常被称为“Word Representation”或“Word Embedding”,中文俗称“词向量”或“词嵌入”。
  • 如果用传统的稀疏表示法表示单词,在解决某些任务的时候(比如构建语言模型)会造成维数灾难[Bengio 2003]。使用低维的词向量就没这样的问题。同时从实践上看,高维的特征如果要套用 Deep Learning,其复杂度几乎是难以接受的,因此低维的词向量在这里也备受追捧。

3.词向量的训练

  • 在介绍如何训练词向量之前,必须先介绍语言模型。因为对于大多数的训练方法,都是在训练语言模型的同时,顺便得到词向量的,词向量只是训练语言模型过程中的“意外之物”。从大量未标注的普通文本数据中无监督地学习出词向量,建立一个语言模型。
  • 语言模型的作用就是检测一句话是不是正常人说出来的,语言模型意义重大。比如机器翻译、语音识别得到若干候选选项后,可以利用语言模型挑选一个尽量准确的结果。在其他NLP任务中都能用到。
  • 语言模型形像化的解释是:给定一句话,看它是自然语言的概率P(w1,w2,w3,…,wt)是多少。w1到wt依次表示这句话中的每个单词,简单的推论是:P(w1,w2,w3…,wt)=P(w1)*P(w2|w1)P(w3|w1,w2)…P(wt|w1,w2,…,wt-1),常用的语言模型都是在求P(wt|w1,w2,…,wt-1)的值,比如n-gram模型就是用P(wt|w1,w2,…,wt-1)近似代替P(w1,w2,w3…,wt)

4.A Neural Probabilistic Language Model 原理解释

  • 训练语言模型的最经典之作,要数 Bengio 等人在 2001 年发表在 NIPS 上的文章《A Neural Probabilistic Language Model》,Bengio 用了一个三层的神经网络来构建语言模型,同样也是 n-gram 模型,如下图所示。
    Neural Probabilistic Language Model原理图.png
  • 目标:上图中最下方的wt-n+1,…,wt-2,wt-1就是前n-1个单词,现在根据这已知的n-1个单词预测下一个单词wt。
  • 数学符号说明:
    • C(w):表示单词w对应的词向量,整个模型中使用一套唯一的词向量。
    • C:词向量C(w)存在于矩阵C(|V|*m)中,矩阵C的行数表示词汇表的大小;列数表示词向量C(w)的维度。矩阵C的某一行对应一个单词的词向量表示。
    • |V|:表示词汇表的大小,即语料库中的单词总数
    • m:表示词向量C(w)的维度,一般是50到100
    • w到C(w)的转化:从矩阵C中取出一行
    • d:隐藏层偏置bias(h)
    • H: 隐藏层的权重(h*(n-1)m)
    • U:隐藏层到输出层的权重(|V|*h)
    • b:输出层的偏置bias(|V|)
    • W:输入层到输出层权重(|V|*(n-1)m)
    • h:隐藏层神经元的数量
  • 网络的第一层(输入层)是将C(wt-n+1),…,C(wt-2),C(wt-1)这已知的n-1和单词的词向量首尾相连拼接起来,形成(n-1)w的向量,下面用x表示。
  • 网络的第二层(隐藏层)直接用d+Hx计算得到,d是一个偏置项。之后,用tanh作为激活函数。
  • 网络的第三层(输出层)一共有|V|个节点,每个节点yi表示下一个单词i的未归一化log概率。最后使用softmax函数将输出值y归一化成概率,最终y的计算公式如下:
    y = b + Wx + Utanh(d+Hx)
  • 最后,用随机梯度下降法把这个模型优化出来就可以了。

5.代码实现—PyTorch版本

#!/usr/bin/env python
# -*- coding: utf-8 -*-
# @Date    : 2019-02-26 14:15:49
# @Author  : cdl (1217096231@qq.com)
# @Link    : https://github.com/cdlwhm1217096231/python3_spider
# @Version : $Id$


import torch
import numpy as np
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim
from torch.autograd import Variable

"""
1.Basic Embedding Model
    1-1. NNLM(Neural Network Language Model)
"""

dtype = torch.FloatTensor
sentences = ["i like dog", "i love coffee", "i hate milk"]

word_list = " ".join(sentences).split()  # 制作词汇表
print(word_list)
word_list = list(set(word_list))  # 去除词汇表中的重复元素
print("去重后的word_list:", word_list)
word_dict = {
   w: i for i, w in enumerate(word_list)}  # 将每个单词对应于相应的索引
number_dict = {
   i: w for i, w in enumerate(word_list)}  # 将每个索引对应于相应的单词
n_class = len(word_dict)  # 单词的总数

# NNLM parameters
n_step = 2   # 根据前两个单词预测第3个单词
n_hidden = 2  # 隐藏层神经元的个数
m = 2  # 词向量的维度


# 由于pytorch中输入的数据是以batch小批量进行输入的,下面的函数就是将原始数据以一个batch为基本单位喂给模型
def make_batch(sentences):
    input_batch = []
    target_batch = []
    for sentence in sentences:
        word = sentence.split()
        input = [word_dict[w] for w in word[:-1]]
        target =
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值