【DL学习笔记09】《深度学习进阶——自然语言处理》——ch02: 自然语言和单词的分布式表示

 

目录

1. 什么是自然语言处理

2. 同义词词典

3. 基于计数的方法

基于Python的语料库的预处理

分布式

共现矩阵

向量间的相似度

相似单词的排序

4. 基于计数的方法的改进

点互信息(PMI)

降维 dimensionality reduction

基于SVD的降维

PTB数据集

基于PTB数据集的评价

0. 补充

enumerate

argsort


本章我们先介绍深度学习出现前的方法,练习使用Python处理文本,实现分词和单词ID化等

1. 什么是自然语言处理

  • 自然语言处理(Natural Language Processing,NLP):让计算机理解人类语言
    • 应用:搜索引擎、机器翻译、问答系统、情感分析、自动文本摘要等
  • 单词含义:单词是含义的最小单位,因此首先要让计算机理解单词含义。3种巧妙地蕴含了单词含义的表达方法:
    • 基于同义词词典的方法
    • 基于计数的方法
    • 基于推理的方法(word2vec)(下章介绍)

2. 同义词词典

  • 将具有相同含义的单词或含义类似的单词归类到同一个组中
  • 有时会定义单词之间的粒度更细的关系,比如上位-下位,整体-部分
  • 例如,motor vehicle(机动车)是单词car的上位概念,car的下位概念有SUV、compact等更加具体的车种
  • 单词网络:通过对所有单词创建近义词集合,并用图表示哥哥单词的关系,可以定义单词之间的联系
  • WordNet:最著名的同义词字典,可以获得单词的近义词或者利用单词网络,可以计算单词之间的相似度
  • 存在问题:自然语言新词和新含义的出现,人力成本高,无法表示单词的微妙差异

3. 基于计数的方法

  • 语料库:包含了大量的关于自然语言的实践知识,即文章的写作方法、单词的选择方法和单词含义等
  • 基于计数的方法就是从这些富有实践知识的语料库中,自动且高效的提取本质

基于Python的语料库的预处理

NLP领域存在各种各样的语料库,本章先使用仅包含一个句子的简单文本作为语料库

  1. 简单语料库+分词
# 1.简单语料库
>>> text = 'You say goodbye and I say hello.'

# 2.进行分词
# (1)lower()将所有字母转化为小写
>>>text = text.lower()
# (2)考虑到句子结尾的句号,在前面插入一个空格
>>>text = text.replace('.', ' .')
>>>text
'you say goodbye and i say hello .'
# (3)将空格作为分隔符
>>>words = text.split(' ')
>>>words
['you', 'say', 'goodbye', 'and', 'i', 'say', 'hello', '.']
  1. 给单词加上ID
# 3.给单词标上ID
word_to_id = {}
id_to_word = {}
for word in words:
    if word not in word_to_id:
        new_id = len(word_to_id)
        word_to_id[word] = new_id
        id_to_word[new_id] = word
>>>id_to_word
{0: 'you', 1: 'say', 2: 'goodbye', 3: 'and', 4: 'i', 5: 'hello', 6: '.'}
>>>word_to_id
{'you': 0, 'say': 1, 'goodbye': 2, 'and': 3, 'i': 4, 'hello': 5, '.': 6}
  1. 使用Python的列表解析式将单词列表转化位单词ID列表,再将其转化为NumPy数组
# 4.使用Python的列表解析式将单词列表转化位单词ID列表,再将其转化为NumPy数组
>>>import numpy as np
# 
>>>corpus = [word_to_id[w] for w in words]
>>>corpus = np.array(corpus)
>>>corpus
array([0, 1, 2, 3, 4, 1, 5, 6])
  • 列表解析式或字典解析式,是一种便于对列表或字典进行循环处理的写法,比如要创建元素位列表 xs = [1, 2, 3, 4]种各个元素的平方的序列表a时,可以写成 a = [x**2 for x in xs]
  1. 现在我们将上述处理实现为**preprocess()**函数
def preprocess(text):
    text = text.lower()
    text = text.replace('.', ' .')
    words = text.split(' ')

    word_to_id = {}
    id_to_word = {}
    for word in words:
        if word not in word_to_id:
            new_id = len(word_to_id)
            word_to_id[word] = new_id
            id_to_word[new_id] = word

    corpus = np.array([word_to_id[w] for w in words])

    return corpus, word_to_id, id_to_word

分布式

  • 单词的分布式表示:
    • 将单词表示为固定长度的向量。这种向量的特征在于它是用密集向量表示的。密集向量的意思是,向量的各个元素(大多数)是由非0实数表示的
  • 分布式假设:
    • 某个单词的含义由它周围的单词形成。其所表达的理念就是,单词本身没有含义,其含义由它所在的上下文形成
    • 我们将上下文的大小(即周围单词由多少个)称为窗口大小

共现矩阵

基于分布式假设使用向量表示单词最直截了当的实现方法是对周围单词的数量进行计数

  • 对于之前的例子,我们将窗口大小设为1,单词you的上下文只有say,可以用向量[0, 1, 0, 0, 0, 0, 0]表示,对于单词say可以用向量[1, 0, 1, 0, 1, 1, 0]表示
  • 共现矩阵(co-occurence matrix):汇总各个单词的上下文包含的单词的频数的表格
def create_co_matrix(corpus, vocab_size, window_size=1):
    """生成共现矩阵

    :param corpus: 语料库(单词ID列表)
    :param vocab_size:词汇个数
    :param window_size:窗口大小(当窗口大小为1时,左右各1个单词为上下文)
    :return: 共现矩阵
    """
    corpus_size = len(corpus)
    co_matrix = np.zeros((vocab_size, vocab_size), dtype=np.int32)

    for idx, word_id in enumerate(corpus):
        for i in range(1, window_size + 1):
            left_idx = idx - i
            right_idx = idx + i

            if left_idx >= 0:
                left_word_id = corpus[left_idx]
                co_matrix[word_id, left_word_id] += 1

            if right_idx < corpus_size:
                right_word_id = corpus[right_idx]
                co_matrix[word_id, right_word_id] += 1

    return co_matrix

向量间的相似度

具有代表性的方法有向量内积或欧氏距离等,测量单词的向量表示的相似度方面,余弦相似度是很常用的

  • 公式:similarity(x,y)=\frac{x*y}{||x|| ||y||}
    • 分子是向量内积,分母是各个向量的范数。范数表示向量的大小,这里计算的是L2范数(即向量各个元素的平方和的平方根)
    • 先对向量进行正规化,再求它们的内积
  • 余弦相似度直观的表示了“两个向量在多大程度上指向同一方向”,方向相同时,值为1,相反时值为-1
  • 实现
def cos_similarity(x, y, eps=1e-8):
    '''计算余弦相似度

    :param x: 向量
    :param y: 向量
    :param eps: 用于防止“除数为0”的微小值
    :return:
    '''
    nx = x / (np.sqrt(np.sum(x ** 2)) + eps)
    ny = y / (np.sqrt(np.sum(y ** 2)) + eps)
    return np.dot(nx, ny)
  • 应用:求you和i的余弦相似度
text = 'You say goodbye and I say hello.'
corpus, word_to_id, id_to_word = preprocess(text)
vocab_size = len(word_to_id)
C = create_co_matrix(corpus, vocab_size)

c0 = C[word_to_id['you']]  # you的单词向量
c1 = C[word_to_id['i']]    # i的单词向量
print(cos_similarity(c0, c1))
# 0.7071067691154799 ,存在相似度

相似单词的排序

当某个单词被作为查询词时,将与这个查询词相似的单词按降序显示出来

  • 实现
def most_similar(query, word_to_id, id_to_word, word_matrix, top=5):
    '''相似单词的查找

    :param query: 查询词
    :param word_to_id: 从单词到单词ID的字典
    :param id_to_word: 从单词ID到单词的字典
    :param word_matrix: 汇总了单词向量的矩阵,假定保存了与各行对应的单词向量
    :param top: 显示到前几位
    '''
	# 1.取出查询词的id和单词向量
    if query not in word_to_id:
        print('%s is not found' % query)
        return

    print('\\n[query] ' + query)
    query_id = word_to_id[query]
    query_vec = word_matrix[query_id]

	# 2.计算查询词的单词向量和其它所有单词向量的余弦相似度
    vocab_size = len(id_to_word)
    similarity = np.zeros(vocab_size)
    for i in range(vocab_size):
        similarity[i] = cos_similarity(word_matrix[i], query_vec)

	# 3.基于余弦相似度的结果,按降序显示它们的值
    count = 0
    for i in (-1 * similarity).argsort():
        if id_to_word[i] == query:
            continue
        print(' %s: %s' % (id_to_word[i], similarity[i]))

        count += 1
        if count >= top:
            return
  • 应用:将you作为查询词
text = 'You say goodbye and I say hello.'
corpus, word_to_id, id_to_word = preprocess(text)
vocab_size = len(word_to_id)
C = create_co_matrix(corpus, vocab_size)

most_similar('you', word_to_id, id_to_word, C, top=5)

# 输出
[query] you
 goodbye: 0.7071067691154799
 i: 0.7071067691154799
 hello: 0.7071067691154799
 say: 0.0
 and: 0.0
  • 分析:i 和 you 都是人称代词,所以二者相似可以理解,但是与goodbye和hello也相似,原因可能是这里的语料库太小了

4. 基于计数的方法的改进

点互信息(PMI)

  • 上述的共现矩阵的元素表示两个单词同时出现的次数,但是这种”原始“的次数并不具备好的性质,例如 the 作为一个常用词,它和其它单词会具有很强的相关性,为解决这一问题,我们使用点互信息(Pointwise Mutual Information,PMI),因为PMI中考虑了单词单独出现的次数
  • 公式:PMI(x,y)=log_2{\frac{P(x,y)}{P(x)P(y)}}
    • P(x)表示x发生的概率,P(y)表示y发生的概率,P(x,y)表示x和y同时发生的概率
    • 在自然语言的例子中,发生的概率就是指在语料库中出现的概率
  • 用共现矩阵(单词共现的次数)来重写,N表示语料库的单词数量
    • P(x)=C(x)/N
    • PMI(x,y)=log_2{\frac{C(x,y)*N}{C(x)C(y)}}
  • 问题:当两个单词的共现次数为0时,PMI值为负无穷,因此我们使用正的点互信息(Positive PMI,PPMI)
    • PPMI(x,y)=max(0, PMI(x, y))
  • 实现
def ppmi(C, verbose=False, eps = 1e-8):
    '''生成PPMI(正的点互信息)

    :param C: 共现矩阵
    :param verbose: 是否输出进展情况
    :return:
    '''
    M = np.zeros_like(C, dtype=np.float32)
    N = np.sum(C)  # 共现矩阵中不为0的值的和
    S = np.sum(C, axis=0)  # 共现矩阵中每行的不为0的值的和,表示该单词出现的概率
    total = C.shape[0] * C.shape[1]
    cnt = 0

    for i in range(C.shape[0]):
        for j in range(C.shape[1]):
            pmi = np.log2(C[i, j] * N / (S[j]*S[i]) + eps)
            M[i, j] = max(0, pmi)

            if verbose:
                cnt += 1
								# 均匀输出100个进度
                if cnt % (total//100 + 1) == 0:
                    print('%.1f%% done' % (100*cnt/total))
    return M
  • 应用:将共现矩阵转化为PPMI矩阵
text = 'You say goodbye and I say hello.'
corpus, word_to_id, id_to_word = preprocess(text)
vocab_size = len(word_to_id)
C = create_co_matrix(corpus, vocab_size)
W = ppmi(C)

np.set_printoptions(precision=3)  # 有效位数为3位
print('covariance matrix')
print(C)
print('-'*50)
print('PPMI')
print(W)
  • 输出
covariance matrix
[[0 1 0 0 0 0 0]
 [1 0 1 0 1 1 0]
 [0 1 0 1 0 0 0]
 [0 0 1 0 1 0 0]
 [0 1 0 1 0 0 0]
 [0 1 0 0 0 0 1]
 [0 0 0 0 0 1 0]]
--------------------------------------------------
PPMI
[[0.    1.807 0.    0.    0.    0.    0.   ]
 [1.807 0.    0.807 0.    0.807 0.807 0.   ]
 [0.    0.807 0.    1.807 0.    0.    0.   ]
 [0.    0.    1.807 0.    1.807 0.    0.   ]
 [0.    0.807 0.    1.807 0.    0.    0.   ]
 [0.    0.807 0.    0.    0.    0.    2.807]
 [0.    0.    0.    0.    0.    2.807 0.   ]]
  • 问题:随着语料库的词汇量增加,各个单词向量的维数也会增加。矩阵中许多元素都是0,表明向量中绝大多数元素并不重要,同时也容易受到噪声影响,稳健性差。

降维 dimensionality reduction

在尽量保留“重要信息”的基础上减少向量维度。向量中的大多数元素为0的矩阵称为稀疏矩阵,这里的重点是,从稀疏矩阵中找出重要的轴(考虑数据的广度),用更少的维度对其进行重新表示,将其转化为大多数元素均不为0的密集矩阵。将为的方法有很多,这里我们使用奇异值分解(Singular Value Decomposition,SVD

  • SVD将任意矩阵分解为3个矩阵的乘积:X=USV^T
    • U和V是列向量彼此正交的正交矩阵,U作为单词空间
    • S是除了对角线元素外其余元素均为0的对角矩阵,奇异值在对角线上降序排列,简单说我们可以将奇异值作为对应的基轴的重要性
  • 这里对SVD的介绍仅限于最直观的概要性的说明

基于SVD的降维

text = 'You say goodbye and I say hello.'
corpus, word_to_id, id_to_word = preprocess(text)
vocab_size = len(word_to_id)
C = create_co_matrix(corpus, vocab_size, window_size=1)
W = ppmi(C)

# SVD
U, S, V = np.linalg.svd(W)

print(C[0])  # 共现矩阵
# [0 1 0 0 0 0 0]
print(W[0])  # PPMI矩阵
# [0. 1.807 0. 0. 0. 0. 0.]
print(U[0])  # SVD
# [-3.4094876e-01 -1.1102230e-16 -3.8857806e-16 -1.2051624e-01
# 0.0000000e+00  9.3232495e-01  2.2259700e-16]
  • 原先的稀疏向量W[0]经过SVD被转化成了密集向量U[0],降维到二维矩阵,只需要取出前两个元素即可,U[0, :2]
  • 如果矩阵大小是N,SVD的计算的复杂度将达到O(N^3),因此我们会使用Truncated SVD,通过截去奇异值较小的部分,实现高速化

PTB数据集

与原始的PTB文章相比,多了若干预处理,包括将稀有单词替换成特殊字符<unk>,将具体的数字替换成N等

  • 在PTB语料库中,一行保存一个句子
  • 本书中,我们将所有句子连接起来,并将其视为一个大的时序数据,此时每个句子的结尾处要插入<eos>(end of sentence)。此外本书提供了方便使用PTB数据集的代码
  • 例子
corpus, word_to_id, id_to_word = ptb.load_data('train')

print('corpus size:', len(corpus))
print('corpus[:30]:', corpus[:30])
print()
print('id_to_word[0]:', id_to_word[0])
print('id_to_word[1]:', id_to_word[1])
print('id_to_word[2]:', id_to_word[2])
print()
print("word_to_id['car']:", word_to_id['car'])
print("word_to_id['happy']:", word_to_id['happy'])
print("word_to_id['lexus']:", word_to_id['lexus'])
  • 运行结果
corpus size: 929589
corpus[:30]: [ 0  1  2  3  4  5  6  7  8  9 10 11 12 13 14 15 16 17 18 19 20 21 22 23
 24 25 26 27 28 29]
id_to_word[0]: aer
id_to_word[1]: banknote
id_to_word[2]: berlitz
word_to_id['car']: 3856
word_to_id['happy']: 4428
word_to_id['lexus']: 7426

基于PTB数据集的评价

下面我们将基于计数的方法应用于PTB数据集,同时使用更快速的SVD对大矩阵执行SVD:sklearn 的 randomized_svd( )

  • 测试代码
window_size = 2
wordvec_size = 100

corpus, word_to_id, id_to_word = ptb.load_data('train')
vocab_size = len(word_to_id)
print('calculating co-occurrence ...')
C = create_co_matrix(corpus, vocab_size, window_size)
print('calculating PPMI ...')
W = ppmi(C, verbose=True)
print('calculating SVD ...')
try:
    # truncated SVD (fast!)
    from sklearn.utils.extmath import randomized_svd
    U, S, V = randomized_svd(W, n_components=wordvec_size, n_iter=5, random_state=None)
except ImportError:
    # SVD (slow)
    U, S, V = np.linalg.svd(W)

word_vecs = U[:, :wordvec_size]

querys = ['you', 'year', 'car', 'toyota']
for query in querys:
    most_similar(query, word_to_id, id_to_word, word_vecs, top=5)
  • 运行结果
[query] you
 i: 0.6907097697257996
 we: 0.6247817277908325
 do: 0.5822529792785645
 anybody: 0.5639793872833252
 'd: 0.501946210861206

[query] year
 month: 0.6549689769744873
 quarter: 0.6407794952392578
 next: 0.6044325828552246
 months: 0.5909066200256348
 earlier: 0.5837885141372681

[query] car
 auto: 0.6536476612091064
 luxury: 0.6262210011482239
 cars: 0.6077972650527954
 corsica: 0.5058659315109253
 vehicle: 0.4927710294723511

[query] toyota
 motor: 0.7512580156326294
 motors: 0.6617915630340576
 mazda: 0.6069322824478149
 lexus: 0.591224193572998
 honda: 0.576309084892273
  • 将单词含义编码成向量的总结:
    • 使用语料库计算上下文中的单词数量
    • 将它们转化成PPMI矩阵
    • 基于SVD降维获得更好的单词向量
    • 这就是单词的分布式表示,每个单词表示为固定长度的密集向量

0. 补充

enumerate

  • 对于一个可迭代的(iterable)/可遍历的对象(如列表、字符串),enumerate()可以将其组成一个索引序列,利用它可以同时获得索引和值
  • 【例】如果对一个列表:list1 = ["这", "是", "一个", "测试"] ,既要遍历索引又要遍历元素时
    • 首先可以这样写: for i in range (len(list1)): print i ,list1[i]
    • 上述方法有些累赘,利用enumerate()会更加直接和优美: for index, item in enumerate(list1): print index, item

argsort

  • 按升序对NumPy数组的元素进行排序,返回值是数组的索引
  • 将数组乘以-1就可以实现降序
>>> x = np.array([100, -20, 2])
>>> x.argsort()
array([1, 2, 0])
>>> (-x).argsort()
array([0, 2, 1])
  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值