《深度学习》自然语言处理 统计、神经语言模型 结构、推导解析

目录

一、语言转换方法

1、如何将语言转换为模型可以直接识别的内容

1)数据预处理

2)特征提取

3)模型输入

4)模型推理

二、语言模型

1、统计语言模型

1) 案例:

• 运行结果:

• 稀疏矩阵内容表达:

2) 统计学语言模型存在的问题

• 参数空间的爆炸式增长

• 缺乏考虑词与词之间内在联系的能力

2、神经语言模型

1) 传统自然语言处理

2) 如何解决维度灾难问题

3) 词嵌入embedding

4)word2vec训练词向量的模型

• CBOW

• SkipGram

5) 模型训练过程


一、语言转换方法

1、如何将语言转换为模型可以直接识别的内容

        1)数据预处理

                首先,需要对原始语言数据进行预处理。这包括分词去除停用词 等操作,以便将语言数据转换成可以被模型处理的形式。

        2)特征提取

                在将语言转换为模型可识别的内容之前,需要将语言数据转换为数值特征。常见的特征提取方法包括TF-IDF词嵌入(如Word2VecGloVe)等。这些方法可以将文本中的单词短语转换为向量表示,便于输入到模型中进行处理。

        3)模型输入

                将特征转换为模型可以接受的输入形式。具体形式取决于所使用的模型类型。例如,对于神经网络模型,可以通过将特征表示为张量矩阵的形式来输入模型。

        4)模型推理

                将输入的特征数据输入到训练好的模型中进行推理或者生成。根据任务的不同,可以使用不同的模型,如分类模型、序列生成模型等。

二、语言模型

1、统计语言模型

        统计语言模型是一种基于统计模型的语言处理技术。它主要用于计算一个给定文本序列的概率或预测下一个单词的概率。统计语言模型通过分析大量的文本数据,学习单词之间的概率分布,从而能够生成符合语法和语义规则的新文本。

        比如之前机器学习中使用词向量转换的方法,将单词表示为向量的技术,能够捕捉单词之间的语义和语法关系。

        1) 案例:

                有以下4段文本字符串,可将其当做四个文本文档,将其转化为数值类型特征矩阵

                text = [' dog cat fish ' , ' dog cat cat ' , ' fish bird ' , ' bird ' ]

                对这四篇文档进行分词,然后转化为数值类型,代码如下

from sklearn.feature_extraction.text import CountVectorizer  # 导入库将文本集合转换为词频矩阵

texts = ['dog cat fish','dog cat cat','fish bird','bird']   # 随机建立个数据,每个文本字符串代表一个文档
cont = []
cv = CountVectorizer(max_features=6,ngram_range=(1,2))  # 建立一个模型,参数为最大特征数,转换后的特征矩阵将最多包含6列,以及词前后拼接长度范围
cv_fit = cv.fit_transform(texts)   # 训练数据,返回一个稀疏矩阵
print(cv_fit)   # 打印稀疏矩阵
print(cv.get_feature_names_out())  # 打印所有特征值
print(cv_fit.toarray())   # 将稀疏矩阵转变为矩阵类型
                • 运行结果:

        其中每一行代表一篇文章,每一列代表是否有总分词库中的词,由此来形成矩阵。

                • 稀疏矩阵内容表达:

        

        2) 统计学语言模型存在的问题
                • 参数空间的爆炸式增长

                        统计语言模型在建模时需要估计大量的参数,特别是在N(模型考虑的词语个数)较大时(N通常表示模型考虑的上下文的长度,也称为n-gram的n值),由于词汇量很大,参数空间会随着N的增加而指数级增长。这就导致模型需要更多的数据来进行准确的参数估计,训练时间和计算资源也会随之增加。

                 缺乏考虑词与词之间内在联系的能力

                        传统的统计语言模型主要关注词语的频率概率分布,并没有考虑到词之间的语义上下文关系。这使得模型在处理类似的句子时可能会出现问题。例如,在给定的训练数据中没有出现过类似于"the cat is walking in the bedroom"这样的句子,但是在训练数据中出现了类似的句子,如"the dog is walking in the bedroom""the cat is running in the bedroom"。从这些相似的句子中,我们可以推测出"the cat is walking in the bedroom"这个句子的概率较高,但是传统的统计语言模型可能无法准确地捕捉到这种内在联系性。

2、神经语言模型

        神经语言模型通过使用神经网络来学习文本数据中语言的概率分布,从而能够生成文本、评估文本的合理性和预测下一个词或句子

        在神经语言模型中,通常使用循环神经网络或其变种(如长短时记忆网络,LSTM)来处理序列化的文本数据。模型会根据输入文本的上下文信息预测下一个词或句子的概率分布

        神经语言模型可以通过训练大量的文本数据,学习出单词之间的语义和上下文关系。在训练过程中,模型会根据已经观察到的文本序列,通过优化方法调整模型参数,使得模型能更准确地预测下一个词或句子。

        1) 传统自然语言处理

                在传统自然语言中,通常将词语或者向量化,例如one-hot编码(独热编码,例如我们有一句话为:“我爱北京天安门”,我们分词后对其进行one-hot编码,即只有一个维度为1,其他维度都为0的向量。如下所示:

                首先将文章 “我爱北京天安门” 分词,得到【我,爱,北京,天安门】,那么这四个词即可表示这句话的词库,将这篇文章的分词进行独热编码得到下列表达方式:

                即文章的第一个词表示为词库索引的第一个词,将其表示为1,其余词表示为0,第二个词表示为第二个特征为1,其余特征为0,以此类推。

                假如此时有一篇文章有很多很多个词,将其分词后的得到的词库有1000个单词(不重复),那么按照上述独热编码的方式,将这这篇文章转变为向量格式,然后则会有第一个词表示为000.....0001,第二个词表示为000.....0010,每个词表示的有999个0和1个1,每一行代表一个单词的特征,列数表示词库中词的个数,行数表示文档内词的个数,此时则会出现矩阵为非常稀疏,出现维度灾难,例如将上述文档 “我爱北京天安门”以独热编码的格式表达,假设此时语料库中有4960个词,那么将这个文档表达后的形式为下列所示:

             2) 如何解决维度灾难问题

                将上述类型降低维度,即可达到目的

                此时通过神经网络训练将每个词都映射到一个较短的词向量上来,这个较短的词向量维度是多大呢? 一般需要在训练时自己来指定。现在很常见的例如300维。

            3) 词嵌入embedding

                词向量的意思是将自然语言转换为向量的过程,那么词嵌入就是神经语言模型中的一种词向量转换的一种方法。

                将高维度的词向量转换为低维度的词向量表示的方法,我们称之为词嵌入

            4)word2vec训练词向量的模型

                word2vec分为两个模型。

                    • CBOW

                        以上下文词汇预测当前词,前后两个单词预测当前词,这里的两个单词是自定义个数的

                        例如:有这么一句话,“普京若美不批准战略武器新条约俄将发展核力量”,此时将普京、若当做前两个词,不、批准当做后两个词,美当做被预测的值,那么此时这五个词当做第一个预测单元,那么第二个预测单元就是 若、美、不、批准、战略,第三个......,每个词都由独热编码的值表示,将每一个预测单元传入模型进行训练

                       • SkipGram

                        以当前词预测上下文词汇,即当前词预测前后两个单词,这里的两个单词也是自定义个数的

            5) 模型训练过程

                1、当前词的上下文词语的one-hot编码输入到输入层。

                2、这些词分别乘以同一个矩阵W(V*N)后分别得到各自的1*N 向量。

                3、将多个这些1*N 向量取平均为一个1*N 向量。

                4、将这个1*N 向量乘矩阵 W'(N*V) ,变成一个1*V 向量。

                5、将1*V 向量softmax归一化后输出取每个词的概率向量1*V

                6、将概率值最大的数对应的词作为预测词。

                7、将预测的结果1*V 向量和真实标签1*V 向量(真实标签中的V个值中有一个是1,其他是0)计算误差

                8、在每次前向传播之后反向传播误差,不断调整 W(V*N)和 W'(V*N)矩阵的值。

        例如上述的“普京若美不批准战略武器新条约俄将发展核力量”这句话,词库有4960个单词,首先将第一个预测单元的5个词的独热编码传入模型,输入层的格式为4*4960,即4个词,每个词的特征维度为4960个,传入后将其乘以矩阵4960*300,使其降低维度为4*300格式,这里的4960*300则为需要训练的第一个权重参数\omega1,再将得到的4*300格式的矩阵按列相加求平均,即对每一列的值求平均,然后得到1*300的矩阵,再将这个1*300的矩阵乘以矩阵300*4960,这个300*4960则为需要训练的第二个权重参数\omega2,然后的得到1*4960的矩阵,对这个1*4960的矩阵进行softmax归一化后取出每个词的概率向量1*V,概率最大的则为预测的词,然后将这个预测的值与真实值利用损失函数计算损失值,然后还要进行反向传播来不断更新权重参数来降低损失值的大小。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

菜就多练_0828

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值