戳上方蓝字【阿力阿哩哩的炼丹日常】关注我~
今天继续给大家介绍第四章的内容
前面我们介绍了:
深度学习开端-全连接神经网络
一文掌握CNN卷积神经网络
超参数(Hyperparameters)| 上
超参数(Hyperparameters)| 下
寄己训练寄己|自编码器
通熟易懂RNN|RNN与RNN的变种结构 | 上
通俗易懂LSTM|RNN的变种结构 | LSTM长短期记忆网络
通俗易懂GRU|门控循环单元(gated recurrent unit, GRU)
4.7代码实践“纸上得来终觉浅,绝知此事要躬行”。理论是指导实践的基础,实践又是巩固理论的利器。理论与实践相结合,有助于大家对神经网络有更深刻的理解。所以,从本小节开始,我们就从神经网络的原理篇走到了实践篇。
本小节的实验均在Anaconda Python 3.7 、Jupyter Notebook与Keras环境下完成。因此,还未进行环境配置的读者,请翻阅第二章与本章的第一小节。
4.7.1 全连接神经网络回归---房价预测
1. 全连接神经网络与回归
神经网络回归(Quantile RegressionNeural Network ,QRNN)是由Talor提出来的非参数非线性方法。它结合了神经网络和回归的两大优势,具有强大功能,能够揭示数据分布规律。
回归是确定两种或两种以上的变量间相互依赖的定量关系的方法。这里我们通过波士顿地区的13个特征与其房价,来确定这13个特征(自变量)和房价(因变量)之间的关系(模型)。
接下来,笔者就给大家分享如何用全连接神经网络回归去拟合波士顿的房价数据,从而训练出一个可以预测波士顿房价的神经网络模型,进而让大家通过一个简单的实验来巩固之前所学的全连接神经网络知识吧。
2. 实验步骤
(1) 加载数据。
(2) 划分训练集和验证集:用验证集去评估模型的稳健性,防止过拟合。
(3) 数据归一化:目的是消除数据间量纲的影响,使数据具有可比性。
(4) 构建神经网络与训练。
(5) 训练历史可视化。
(6) 保存模型。
(7) 模型的预测功能与反归一化。
1) 代码
1. # /chapter/4_7_1_MLP.ipynb2. from keras.preprocessing import sequence 3. from keras.models import Sequential 4. from keras.datasets import boston_housing 5. from keras.layers import Dense, Dropout 6. from keras.utils import multi_gpu_model 7. from keras import regularizers # 正则化 8. import matplotlib.pyplot as plt 9. import numpy as np 10. from sklearn.preprocessing import MinMaxScaler 11. import pandas as pd
2) 加载数据
1. (x_train, y_train), (x_valid, y_valid) = boston_housing.load_data() # 加载数据 2. 3. # 转成DataFrame格式方便数据处理 4. x_train_pd = pd.DataFrame(x_train) 5. y_train_pd = pd.DataFrame(y_train) 6. x_valid_pd = pd.DataFrame(x_valid) 7. y_valid_pd = pd.DataFrame(y_valid) 8. print(x_train_pd.head(5)) 9. print('-------------------') 10. print(y_train_pd.head(5))
3) 数据归一化
1. # 训练集归一化 2. min_max_scaler = MinMaxScaler() 3. min_max_scaler.fit(x_train_pd) 4. x_train = min_max_scaler.transform(x_train_pd) 5. 6. min_max_scaler.fit(y_train_pd) 7. y_train = min_max_scaler.transform(y_train_pd) 8. 9. # 验证集归一化 10. min_max_scaler.fit(x_valid_pd) 11. x_valid = min_max_scaler.transform(x_valid_pd) 12. 13. min_max_scaler.fit(y_valid_pd) 14. y_valid = min_max_scaler.transform(y_valid_pd)
4) 训练模型
1. # 单CPU or GPU版本,若有GPU则自动切换 2. model = Sequential() # 初始化,很重要!3. model.add(Dense(units = 10, # 输出大小 4. activation='relu', # 激励函数 5. input_shape=(x_train_pd.shape[1],) # 输入大小, 也就是列的大小 6. ) 7. ) 8. 9. model.add(Dropout(0.2)) # 丢弃神经元链接概率 10. 11. model.add(Dense(units = 15, 12. # kernel_regularizer=regularizers.l2(0.01), # 施加在权重上的正则项 13. # activity_regularizer=regularizers.l1(0.01), # 施加在输出上的正则项 14. activation='relu' # 激励函数 15. # bias_regularizer=keras.regularizers.l1_l2(0.01) # 施加在偏置向量上的正则项 16. ) 17. ) 18. 19. model.add(Dense(units = 1, 20. activation='linear' # 线性激励函数 回归一般在输出层用这个激励函数 21. ) 22. ) 23. 24. print(model.summary()) # 打印网络层次结构 25. 26. model.compile(loss='mse', # 损失均方误差 27. optimizer='adam', # 优化器 28. ) 29. history = model.fit(x_train, y_train, 30. epochs=200, # 迭代次数 31. batch_size=200, # 每次用来梯度下降的批处理数据大小 32. verbose=2, # verbose:日志冗长度,int:冗长度,0:不输出训练过程,1:输出训练进度,2:输出每一个epoch 33. validation_data = (x_valid, y_valid) # 验证集 34. )
5) 训练过程可视化
1. import matplotlib.pyplot as plt 2. # 绘制训练 & 验证的损失值 3. plt.plot(history.history['loss']) 4. plt.plot(history.history['val_loss']) 5. plt.title('Model loss') 6. plt.ylabel('Loss') 7. plt.xlabel('Epoch') 8. plt.legend(['Train', 'Test'], loc='upper left') 9. plt.show()
6) 保存模型 & 模型可视化 & 加载模型
1. from keras.utils import plot_model 2. from keras.models import load_model 3. # 保存模型 4. model.save('model_MLP.h5') # 生成模型文件 'my_model.h5' 5. 6. # 模型可视化 需要安装pydot pip install pydot 7. plot_model(model, to_file='model_MLP.png', show_shapes=True) 8. 9. # 加载模型 10. model = load_model('model_MLP.h5')
7) 模型的预测功能
1. # 预测 2. y_new = model.predict(x_valid) 3. # 反归一化还原原始量纲 4. min_max_scaler.fit(y_valid_pd) 5. y_new = min_max_scaler.inverse_transform(y_new) 3. 结果分析在迭代了200个epochs之后,训练集和验证集的损失loss,趋于平稳,这时,我们得到的模型已经是最优的了。所以将epoch设置为200即可。
下一期,我们将继续介绍
深度学习代码实践敬请期待~
关注我的微信公众号~不定期更新相关专业知识~
内容 |阿力阿哩哩
编辑 | 阿璃
点个“在看”,作者高产似那啥~