本文是接着上一篇深度学习之 12 循环神经网络RNN2_水w的博客-CSDN博客
目录
序列数据处理
![](https://img-blog.csdnimg.cn/12d576fd367b4f2b87e4729c9102737a.png)
(2)读取数据,
DataFrame :一个表格型的数据结构,包含有 一组有序的列,每列可以是不同的值类型(数值、字符串、布尔型等),DataFrame即有行索引也 有列索引,可以被看做是由Series组成的字典。
![](https://img-blog.csdnimg.cn/a6ab049b601043359ae1e3b29e23940a.png)
(3)
处理目标: 将原始序列数据处理为方便模型运算的序列数据
![](https://img-blog.csdnimg.cn/6a7a2d452b144928919c8d3362e2a958.png)
1 基本处理
◼ 固定长度滑动窗口
![](https://img-blog.csdnimg.cn/4317f7c0e425403fb00c33d51092d35a.png)
切分之前,只有一条长度为720的长序列。经过切分之后,就变成了709条长度是12的短序列。这样既给我们提供了足够多的样本供模型学习,而且同时也减少了序列的长度,方便我们构造模型。
◼ 数据集划分注意事项
先划分原始长序列,再采样短序列
![](https://img-blog.csdnimg.cn/ea93837b546140eb99cd99831a2402dd.png)
这么做的主要的这个目的就是为了避免交叉,因为我们的划窗操作它是每次向后走一个元素,每次向后滑长度为1,那这样就必然会造成后一个滑窗和前一个滑窗是存在一些交叉部分的,如果说先对整个所有的长序列进行了一个滑窗。那再去对这些得到的短序列进行划分的时候,必然会产生我验证级当中一部分的特征,其实在训练集当中已经出现过了。
当然咱们既然是滑窗,不可能完全出现,但你出现过一部分了。那这其实产生了一种交叉,出现了一种特征层面的数据泄露。那这样其实是我们不希望看到的。这样划分出来验证集和测试集并不能很好的去衡量模型的泛化能力。
所以说我们要一定要先把长序列给切分好,按照训练集,验证集,测试集切分好,然后再在各自内部进行划窗。
◼ 数据集划分示例代码
![](https://img-blog.csdnimg.cn/0e8fb4ea3ae946fe8eaf7cacaf15e282.png)
2 高级处理
◼ 序列重采样
将原始长序列中缺失的 时间戳 补全, 缺失时间点值被填充为 nan
![](https://img-blog.csdnimg.cn/1c87c8217e7e498e96954e49664c2c34.png)
◼ 序列插分
线性插分 ,将 空缺的值 补全, 使用interpolate进行线性插分
- method: 插分方式(线性、零值、指定值);
- axis: 插分维度(默认为0);
- limit: 最大查分长度;
![](https://img-blog.csdnimg.cn/a3234890e1db438f9c30d6e31556bbc8.png)
◼ 固定时间跨度滑动窗口
![](https://img-blog.csdnimg.cn/1ac7e295a22747f0a7e7ad0661bb59e1.png)
注:固定时间窗口采样得到的序列的长度不一致,无法直接处理为Tensor,需要进行填充。
那么由此,其实我们可以引出下一个问题就是,我们刚才得到这种不等长序列,我们如何去把它送到模型当中去学习?
◼ 不等长序列填充&打包
![](https://img-blog.csdnimg.cn/26b2e313b3eb45d6b6f045c1e8e8e633.png)
3 面向对象的数据集构造
◼ 数据读取与标准化
![](https://img-blog.csdnimg.cn/b1163cc28d5d46bab80a7462bb7c5f79.png)
最后我们在这里做了一个数据标准化。那么这个数据标准化其实就是我们此次要使用面向对象最关键的一个点。因为我们使用了面向对象,我们就可以通过这种类内的这个变量去存储我当前数据集的最大和最小值情况,这样我们对它进行标准化之后,我们在后边是可以对它进行一个逆标准化的。
◼ 逆标准化函数
逆标准化:将数据幅度从0-1之间,放大回原有尺度
◼ 数据集的构建
• 分割训练集、验证集、测试集;• 使用滑窗技巧将数据集分割;• 构造样本,指定特征作为待预测特征,前n步预测n+1步;• 将分割后数据集封装到nn.dataset中;
• torch.utils.data.Dataset:一种torch自带的用于 封装数据集 的数据类型;• torch.utils.data.DataLoader:一种torch自带的用于 加载数据 的数据类型;官方介绍文档:https://pytorch.org/docs/stable/data.html
得到datasets之后,放入dataloader 进行数据的迭代输出就可以了。
循环神经网络
1 基本原理
• 循环神经网络能够处理 任意长度的时序数据
![](https://img-blog.csdnimg.cn/4b63a1b9d6e4439193340af4468ccea5.png)
2 动手实现
◼ 模型实现 – 定义和初始化参数
• 参数维度定义• 激活函数选取• 参数初始化
定义一个继承字model类的类。在里边定义好我所有要使用的参数以及隐藏层的激活函数,以及输出层的激活函数,drab函数是否要定义大家可以自行决定。
![](https://img-blog.csdnimg.cn/49d650f4084c40c9a1d21d4db0ecee39.png)
◼ 隐状态更新
• 隐藏状态初始化• 循环迭代更新• 注意返回值
forward函数这里注意,跟之前的网络有一点不一样。定义了一个for循环,长度是整个序列的长度。对于序列中的每一个位置进行x和h的计算。
对整个序列来说,RNN的每一个单元处理序列,每一个位置的每一个单元,它的W和B实际上是共享的。就Wh, Uh, Bh。在整个序列上其实是共享的。
那这个时候大家要引起重视,这个RNN它并不是说我去初始化一个和序列一样长的模型,不是的。我是初始化了一个单元,这个单元在整个序列上滑动。相当于是我定义了一个前馈神经网络,沿着数据沿着我这个数据的序列。去做这样一步一步的输出的。这个本质它底层是有一个参数共享的机制。
![](https://img-blog.csdnimg.cn/05fce83ba59d42d3b58c5721b96445f6.png)
返回的是最后一步的隐藏层和所有Y的输出。
注意:训练函数,不可能说给每个模型都重写一个,尽量保证做实验的每个模型,这个H和Y。它的顺序就谁在前,谁在后,尽量保持一致。要不然不断去调代码,会比较痛苦。
◼ 数据读取
得到3个数据集,
![](https://img-blog.csdnimg.cn/d5fdbc174de44a03acfe5853cd94577e.png)
◼模型训练
初始化模型、loss 函数、优化器 :
- 设备,输入维度,隐藏层输出的大小,序列长度,学习率;
- 定义损失函数;
- 初始化模型;
- 优化器;
![](https://img-blog.csdnimg.cn/98c9321cb6dd43429f0ef0126c470562.png)
调用训练函数,
train()函数:
- 首先定义预存储的loss列表,
- 然后两层for循环:外层是每一轮,内层是取dataloader中的每一个batch的数据。
注意:调用nn接口里的RNN,是没有输出层的,需要单独传输出层的。所以这里定义如果有输出层的model传进来,那么就会把我们刚刚得到的结果再去过一遍;如果没有输出层,那么就直接squeeze了。
- loss计算:需要逆归一化之后再计算指标。
也就是说预测出来的值是基于归一化之后的特征,计算出来的Y值。如果不对它进行归一化,那计算出来的真实指标会很离谱。
- 对验证集的运行,早停机制
◼ eval()函数
在utils.py脚本中实现了对三种测试指标的封装
• 定义和实现指标函数;• 对于回归任务一般选取 RMSE, MAE, MAPE;• Scikit-learn中提供了MAE和MSE;• RMSE由MSE求根得到;• MAPE需要自己实现;
◼ 测试函数:把模型切成测试模式,
在测试过程中,不使用droupout。如果还测试过程中继续使用droupout可能会影响模型的表现。在训练过程中使用droupout,相当于进行正则化提升模型的泛化能力。
◼ 可视化函数:使用PIL
两个函数:一个可以用来画loss,一个可以用来画各个指标。
◼ 训练结果可视化
![](https://img-blog.csdnimg.cn/460888a15e32449d96998e7f999d3875.png)
3 torch.nn.RNN
注意:输入参数中没有output参数。output本质上是每一个单元的隐藏状态。如果要做序列到序列的任务时,需要再加一个输出层。但是最后一步的隐藏状态已经包含了整个序列的信息,相当于是得到了序列的嵌入表示,直接用它也可以。
![](https://img-blog.csdnimg.cn/a97eb8ec6bd1466b962d934925fa22d7.png)
把batch_first置为true。
单独定义输出层之后,得保证它和RNN的承诺书是一起学习的,此时我们就把它们各自的参数用list相加的形式,放到adam优化器中去。这样我们在做梯度下降和优化的时候就可以一起优化了。
![](https://img-blog.csdnimg.cn/cfaae1a8f8464cbb99467e6c3cfe9d8e.png)
◼ 训练结果可视化
![](https://img-blog.csdnimg.cn/51831e52a39042d988f0b3ba3c86cbfb.png)
长短期记忆网络
1 基本原理
LSTM :Long Short Term Memory networks• 一种特殊形式的RNN;• 解决 长程依赖问题;
![](https://img-blog.csdnimg.cn/8ed33037752d4253866cba5c43797e26.png)
• LSTM的核心是 细胞状态 ,用贯穿细胞的 水平线 表示所有的cell,来表示长期的这样一种信息的传递。
• 1)计算遗忘门,决定细胞状态需要舍弃哪部分无用信息
• 2)计算 输入门, 决定细胞状态需要添加哪些有用信息![]()
![]()
• 3)计算候选细胞状态
• 4)更新细胞状态
• 5)计算 输出门 ,控制细胞状态中哪些信息被输出:
• 6)计算输出隐状态![]()
2 动手实现
◼ 模型实现 – 初始化参数
- forget遗忘门
- input输入门。output输出门
- 细胞状态
![](https://img-blog.csdnimg.cn/0d7374dd70934dc0a0669b06ac4ffba9.png)
◼ 模型实现
• 初始化隐藏状态hidden_state 为全0向量;• 按照公式循环迭代更新hidden_state,计算输出;• 返回每一步的输出和最后一步的隐藏状态、细胞状态;• 注意不同地方的 激活函数 的选取;
![](https://img-blog.csdnimg.cn/7487cfcb6841493d9362c7e4e705e64c.png)
如果没有GPU,那么模型跑起来非常慢。
◼ 优化模型实现思路
核心思想:合并矩阵运算,提高并行性
![](https://img-blog.csdnimg.cn/961075868ae14e699ec0bcba2f2b2d49.png)
![](https://img-blog.csdnimg.cn/eb1df1a46e304804bf151e57481e3402.png)
2)所有门控一起合并计算:
◼ 优化模型实现
- gates:横向拼接,纵向同时计算4个门,
- 激活函数,参数初始化;
- forward函数:
- cat函数把第i个和最后一个h拼接在一起,然后过gates()这个线性层。
- 把它们切成等长的4份,得到了3个门和一个细胞候选状态。相当于我只做了一次矩阵运算,这种并行的效率比之前的串行效率提高了很多。
- 紧接着对3个门过sigmoid激活函数,然后细胞候选状态和最后的输出过tanh激活函数。
- 最终得到了输出和hiddlen以及细胞状态。
◼ 训练结果可视化
![](https://img-blog.csdnimg.cn/aec0a3842cf542a6a251ab227e71657e.png)
3 torch.nn.LSTM
◼ 训练结果可视化
门控循环单元
1 基本原理
GRU :Gate Recurrent Unit• 一种特殊形式的RNN;• 相比LSTM,简化门控机制,提高计算效率;• 门控:• 重置门 :控制遗忘多少之前时刻的信息;• 更新门 zt :控制保留多少当前时刻的信息;
![](https://img-blog.csdnimg.cn/65a205defd744819aba6b6088430b0af.png)
2 动手实现
◼ 模型实现(优化后)
![](https://img-blog.csdnimg.cn/6c7aa94fa2104e92be8a11a8916bec01.png)
◼ 训练结果可视化
时间效率上和预测准确率的区别。
![](https://img-blog.csdnimg.cn/ae6677b5025947ba8ae1463cd5f97c08.png)
3 torch.nn.GRU
![](https://img-blog.csdnimg.cn/9a7a71ff865442bdaaae42f6e6beaa29.png)
◼ 训练结果可视化![](https://img-blog.csdnimg.cn/ea6e7961b7144644acb3b11bdc7f27be.png)
4 RNN的一些应用
◼ 序列到类别
![](https://img-blog.csdnimg.cn/29d7014f8d4040a4ae6f208b84243d32.png)
◼ 序列到序列
![](https://img-blog.csdnimg.cn/4c50a2129392432a8f9e2cbf44c9b080.png)
◼ 写字、作诗
![](https://img-blog.csdnimg.cn/31ab3d2a9eff4bff8a822615d6ad2386.png)