文本分类任务算法演变(二)

1.深度学习-pipeline

代码结构:

  1. config.py 输入模型配置参数,如学习率等
  2. loader.py 加载数据集,做预处理,为训练做准备
  3. model.py 定义神经网络模型结构
  4. evaluate.py 定义评价指标,每轮训练后做评测
  5. main.py 模型训练主流程

1.1fastText

示意图:
在这里插入图片描述
释义:

1.首先一个句子进来,我们将它拆分成一个个的字,每个字都有其对应的向量(假如是10个字;矩阵为: 10 * hidden_size
2.我们将矩阵进行Mean pooling就得到 1 * hidden_size
3.在经过一个线性层,加入我们需要分3类;则有:1 * hidden_size x hidden_size * 3 得到一个 1 * 3 的结果
上面就是这个算法的整个过程

问题: 上述的10个字的句子,经过pooling之后,就损失了句子语序信息,或者某些特殊词组合的含义?
解决办法: 我们就针对某些常见的组合,有一些特定的向量,而不是拆成字;比如:吃早饭了吗? 早饭是一个词,对应一个向量,其他的一个字一个向量,这样可以一定程度上保留语义、语序信息

1.2LSTM

释义: 使用RNN(LSTM、GRU)对文本进行编码,使用最后一个位置的输出向量进行分类;这里的LSTM和GRU都是RNN的一个变种。其中LSTM、GRU我们认为在相同的数据训练上,效果差不多,但都明显优于RNN。

方法:
LSTM通过将RNN的隐单元复杂化一定程度规避了梯度消失和信息遗忘的问题。

1.2.1公式详解

(一)
在这里插入图片描述
理解:

  1. 这个公式可以看作一个简化的RNN;ft * C(t-1) 相当于RNN中的前一个神经元计算的值。it * ^Ct就是当前序列计算的值,两个相加就是对下一步的输出。
  2. 在这里f即单词forget;简单来说,前面的计算的记忆内容,有一些并不重要,我们可以选择的遗忘,便于记录当前序列计算的特征。这个遗忘的参数就是ft
  3. i即单词input;当前序列呢,也有一些可能是没有价值的特征,避免影响后续,所以有个input参数,来计算出当前序列那些是有价值的,这个参数就是it
  4. 所以算法,相当于对上一步和当前步的计算结果都有考量。

(二)
在这里插入图片描述
理解:

  1. 首先上述公式 ()内 的内容,其实都是一个RNN,其中W表示序列中各个模块的权重参数h、x表示RNN中的上一步输出值、输入值x表示当前序列时间步的输入b就是bias偏置项。妥妥的标准RNN
  2. 在1的基础上,公式前面都过了一层激活层,分别是sigmoid、tanh
  3. ^Ct就是当前时间步的记忆

(三)
在这里插入图片描述
理解:

  1. ot,o就是单词OUT,即输出的意思,使用的激活函数是sigmoid;内部是一个传统的RNN算法,只是权重和咱们在前面步骤的不一样而已。
  2. ht是当前时间步真正的输出;这个输出是当前的记忆经过激活函数tanh后;再乘ot;即输出门的参数;意思即:当前时间步计算的记忆不应当作为输出,输出应该是有一个表达的转换的,这个转换的参数就叫输出门(ot)
  3. 在LSTM中输出包含两个,一个是ht,即输出值;Ct即记忆值;Ct相当于某个时间步的记忆,需要输出后,则需要加工,即得到ht

1.2.2可视化

在这里插入图片描述

  1. 左侧两个箭头输入,分别是Ct,ht
  2. 左侧下面的箭头分叉,从左往右依次为: ft、it、^Ct、ot

1.3TextCNN

释义: 利用一维卷积对文本进行编码,编码后的文本矩阵通过pooling转化为向量,用于分类。
注意: 在CV中我们的卷积核是正方形的,左右移动,上下移动;但是在NLP中,由于一个向量代表一个词,所以卷积是上下进行的类比理解: 就像是我们中文里,单独的字含义并不明确,有一些是四个字的成语、五个字的成语,或者是两个字的;这样就可以把他们的特征卷积提取出来。但是一般不会超过5个字,这个和语言的特性有关,毕竟在中文中,超5个字的词相对还是比较少的。

示意图:
在这里插入图片描述

1.4Gated CNN

Gated CNN简单来说是基于CNN的一种改进,用下面示意图表示:
在这里插入图片描述
相对于CNN来说,用了两个卷积,增加了可训练的参数量;
核心注意点:

1.新增的卷积,经过了一层激活函数Sigmoid,再与另外一个卷积结果相乘得到输出。
释义:我们知道Sigmoid激活函数是(0,1)的数,和我们前面说LSTM中的门机制一样。这是一种重要思想。

1.5TextRCNN

在这里插入图片描述
释义: 咱们深度学习模型就像搭积木一样;这里的TextRCNN同样是如此,将RNN和CNN相结合起来

  1. 上面图示中,首先输入进行embedding,通过一个RNN的LSTM得到输出。
  2. LSTM的输出不一定适合CNN的输入,所以就转换为对于的字符,再进行embedding
  3. 将embedding的内容再交给后续的TextCNN继续计算。

1.6Bert

Bert编码示意图:

在这里插入图片描述

对于Bert的编码结果,文本分类有多种的使用方式,虽然方式不同,但逻辑相同,都是取其某些层的编码结果,再进行分类而已。

1.6.1取[cls] token对应的向量

释义:
我们知道Bert会标注输入句子的首位,用首位的向量表示。在Bert网络结构,完成计算后,也会输出;在这里我们就取输出的[cls]对应向量,进行分类

  1. 以基础的Bert为例,取出的[cls]向量为:1 * 768
  2. 假如要分10类,则使用768 * 10的矩阵和[cls]向量相乘即
  3. 为什么用Bert的cls;是因为Bert本身在做上下句关系时,用的这个cls

1.6.2将整句话的向量取max/average pooling

释义:
我们把Bert会的输出的向量,整体取出来,过pooling层,进行分类。

  1. 以基础的Bert为例,输出向量为[cls]向量为:20 * 768
  2. 那我们将结果pooling后,得到 1* 768
  3. 假如要分10类,则使用768 * 10的矩阵与pooling后的向量相乘即
    4.这里pooling不会损失语义信息,因为输入token是经过bert网络计算过后的。

1.6.3将Bert编码后的向量再输入LSTM或CNN

释义: 就是字面意思,将Bert的输出,再接RNN、CNN网络,完成分类。

1.6.4将Bert中间层的结果取出加入运算等

释义: 上面的内容,我们都是取Bert最后一层的输出进行处理。

1.经过实验后发现,标准的Bert是12层,我们其中,第三层的结果,进行分类,也能取到较好的效果。
2.注意,实验的结果表示,如果需要分类的任务越复杂,则Bert的网络层数应该越深才行。

2数据问题

2.1数据稀疏问题

释义: 训练数据量小,模型在训练样本上能收敛,但预测准确率很低

解决方案:

1.标注更多的数据
2.尝试构造训练样本(数据增强)
3.更换模型(如使用预训练模型等)减少数据需求
4.增加规则弥补
5.调整阈值,用召回率换准确率
比如:3分类预测[0.3,0.4,0.3],就不采纳模型的预测结果,必须要达到0.6以上才采纳,那么预测的数据就变少了,但是准确率提升了,
6.重新定义类别(减少类别)

2.2标签不均衡问题

释义: 部分类别样本充裕,部分类别样本极少
在这里插入图片描述
解决办法:

  1. 解决数据稀疏的所有的方法依然适用
  2. 过采样 复制指定类别的样本,在采样中重复
  3. 降采样 减少多样本类别的采样,随机使用部分,多余的样本进行测试
  4. 调整样本权重 通过损失函数权重调整来体现,比如,教育的材料权重调整时,损失函数增大。

3.多标签分类问题

释义: 多标签 不同于 多分类;多标签是M选N;多分类是M选1。比如:一部电影即属于动作片,也属于科幻片,就是多标签分类问题。

多标签问题的转化

  1. 分解为多个独立的二分类问题
    举例: 比如有3个标签分类,就训练三个模型,每个模型都是二分类,判断材料是本模型和不是本模型;1/0

  2. 将多标签分类问题转换为多分类问题
    举例: 比如有动作电影、科幻电影、枪战片三类;把可能的搭配全部梳理出来

  1. 动作、科幻;2. 动作、枪战; 3. 科幻、枪战
  2. 动作 5. 枪战 6.科幻

这样的多标签分类,就变成了一个6分类的问题,但是这个方案,对于标签较少比较合适,如果标签过多,可以详细,分类将膨胀。

  1. 更换loss直接由模型进行多标签分类
    举例: 比如使用,BCELoss损失函数。
    理解: 比如我们正常的分类,输入是标记一个,即[1,0,0,0,0];但是多标签分类,可以标记多个:[1,0,1,0,1],即表示数据属于1、3、5类;通过BCELoss损失函数,可以进行计算和参数更新。

其示意图公式如下:

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值