李宏毅机器学习入门笔记——第五节

本文探讨了如何通过batchnormalization解决类神经网络训练中的困难,特别是在误差表面崎岖时。同时介绍了transformer和其自注意力与交叉注意力机制,以及NAT和非自回归模型的优势,强调了注意力机制在减少计算量和提高效率中的作用。
摘要由CSDN通过智能技术生成

类神经网络训练不起来的问题解决方式

标准化

对于 error surface 比较崎岖,难以训练的问题,就是可以使用batch normalization。对于不同的变量维度而言,如果差值比较大的时候,存在将预测的结果变大,导致训练的方向不理想。
对于不同变量的同一纬度使用归一化操作,即是标准化操作。
特征标准化
要注意的是变量的每一个维度代表一个维度。
对于每个神经网络层都可以增加标准化层。其中要注意的是层的前后顺序。
考虑特征共享的问题
当神经网络输入的变量考虑多个输入的时候,对于标准化层,能够通过计算输入的所有变量的标准差和平均值,进行所有的变量进行标准化操作。就是俗称的batch normalization。batch表示就是批量的输入,需要考虑的就是网络的大小。
额外的超参数
使用多两个额外的参数,是network的参数,因为之前的标准化操作,使得对应的输出值平均为0,但是往往希望平均不是0,不影响对应的模型,所以添加这个两个变量,使对应的均值不是0,主要是看模型的训练,可能是均值0,可能不是。
需要考虑对应的另一个问题,因为标准化是batch数量,但是在test过程中,就会存在输入的数量是1个情况。所以test解决方式就是累计计算的过程。通过train的时候计算得出的方差和均值,进行计算。
test中的标准化

transformer (对应的作业5)

transformer就是变形金刚。其实就是一个sequence to sequence的模型。
对于多个输入变为多个输出的过程,例如语音识别文字或则和机器翻译的过程都是不对等的输入输出的模型。
模型例子

大量的应用在自然语言应用上。
模型对应的描述图。

描述图
其中对应的层里面self-attention层的处理有右边所示,其中对应的部分就是encoder部分。encoder所做的部分就是输入的变量输出对应的同等数量的输出,放入decoder。
对于decoder的部分来说有如下。按照语音识别来说,decoder就是对于输入的变量进行查询对应的字典的所有单词的概率。将对应的识别的第一次字再扔入进行识别配合语音encoder的识别,识别第二个,以此类推。
具体两个之间的差别如下,只是decoder中间加上了一个self-attention的部分。
两者之间差别
但是对于这个self-attention不一样的是,他是单向的
在这里插入图片描述
考虑左边的东西,也就是语音识别的单向。具体计算
其中对于字典内部除了对应的所有中文字以外,还应该有begin和end的两个单词,进行训练,进行语音识别工作的开始和结束的标志。

NAT

NAT
在这里插入图片描述
NAT可以进行平行的计算过程,但是对于识别而言永远差于AT。

Transformer

transformer
cross attention运作,就是上图红色框的部分,将encoder和decoder的部分交汇一起,进行训练过程,其中q是输出结果,将q进行扔入再次计算的。
在这里插入图片描述
对于cross attention很早就有了,比transformer更早。
cross attention的变形
不一定要从encoder的第一次进行decoder,可以从多个encoder层上进行计算。

transformer train训练

训练过程
和分类的过程很相似,其实就是通过众多字典的概率不同计算最大最可能的字。
单独进行decoder的训练
对于decoder训练我们可以通过输入真实值进行训练。
对于训练的时候看的是 cross entropy,但是实际测试的时候看的bleu score。
但是在测试的时候,由于是单向计算的问题,就存在前一个结果是错的,影响到后面的结果。所以在训练的时候可以添加一些错误的结果进行噪声训练。

各式各样的attention

前面我们已经讲了self-attention,现在讲一下attention
在这里插入图片描述
注意的是self-attention是一个大型网络的模块,当内部输入参数量很大的时候,主要的计算量就在self-attention
在这里插入图片描述
对于输入参数,存在相邻关联的参数进行注意力机制
在这里插入图片描述
可以使用跨步注意,相关固定步长参数相互关联
在这里插入图片描述
全局attention,定义多个non特殊的注意参数具有共同的特殊参数

在这里插入图片描述
使用的时候,将多种的attention进行关联起来进行模型训练

在这里插入图片描述
这里将相关的attention进行聚类,同一类的进行相关联

在这里插入图片描述
使用nn网络进行key的快速分类
还有就是可以使用key的压缩加速运算
在这里插入图片描述
减少key参数的两种方式如上。
为了减少计算量,通过将self-attention中的步骤进行链式计算,将计算步骤进行合理的排序的矩阵计算
在这里插入图片描述

Non-Autoregressive model

在这里插入图片描述
自回归的模型如上,需要单个一次次迭代输入
在这里插入图片描述
非自回归的模型,可以进行平行计算,快速输出结果

Pointer Network

在这里插入图片描述
寻找关联的点串联起来,将相关的点包含进去

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

pengshi12138

加油加油

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值