前言
茴字有13种写法其实才是深入学习的有效方式
接着上一篇文章的题目, 本章汇总前面所学,然后使用 Sequential API模式来构建模型。
提示:以下是本篇文章正文内容,下面案例可供参考
一、神经网络的常用流程
流程图
简单的神经网络都是一层一层叠加起来的,如下图:
流程简介
构建模型
- 序列式:sequential
如下,根据需要添加多个Dense层
model = tf.keras.models.Sequential([
tf.keras.layers.Dense(1)
])
- 函数式:functional
如果要建立更为复杂的模型,则可使用函数式。
inputs = tf.keras.Input(shape=(28, 28, 1))
x = tf.keras.layers.Flatten()(inputs)
x = tf.keras.layers.Dense(units=100, activation=tf.nn.relu)(x)
x = tf.keras.layers.Dense(units=10)(x)
outputs = tf.keras.layers.Softmax()(x)
model = tf.keras.Model(inputs=inputs, outputs=outputs)
- 子类化:subclassing
继承keras.Model的方式
class MyLinear(tf.keras.Model):
def __init__(self):
super().__init__()
self.dense = tf.keras.layers.Dense(
units=1,
activation=None,
kernel_initializer=tf.zeros_initializer(),
bias_initializer=tf.zeros_initializer()
)
def call(self, input):
output = self.dense(input)
return output
编译模型
tf.keras.Model.compile 接受 3 个重要的参数:
- oplimizer :优化器,可从 tf.keras.optimizers 中选择;
- loss :损失函数,可从 tf.keras.losses 中选择;
- metrics :评估指标,可从 tf.keras.metrics 中选择
# 适合一次函数的 loss函数,optimizer, metrics
model.compile(
optimizer=tf.keras.optimizers.SGD(learning_rate=5e-4),
loss=tf.losses.MeanSquaredError(),
metrics=[tf.keras.metrics.mean_squared_error]
)
拟合模型
- x :训练数据;
- y :目标数据(数据标签);
- epochs :将训练数据迭代多少遍;
- batch_size :批次的大小;
- validation_data :验证数据,可用于在训练过程中监控模型的性能。
model.fit(X, y, epochs=10000, batch_size=100, validation_data=(x_test, y_test), callbacks=[])
评估模型
model.predict(x_test)
model.predict_class(x_test)
model.evaluate(x_test, y_test)
二、使用步骤
题目
考虑一个实际问题,某城市在 2013 年 - 2018 年的房价如下表所示:
年份 | 2013 | 2014 | 2015 | 2016 | 2017 | 2018 |
---|---|---|---|---|---|---|
房价 | 12000 | 14000 | 15000 | 16500 | 17500 | 18400 |
现在,我们希望通过对该数据进行线性回归,即使用线性模型 y = ax + b 来拟合上述数据,此处 a 和 b 是待求的参数。
环境
tensorflow环境安装 前往
源码
完整代码如下:
# -*- coding: utf-8 -*-
"""
Created on Tue Feb 23 13:41:11 2021
@author: huwp001
Dependencies:
tensorflow: 2.0
matplotlib
numpy
Keras Sequential/Functional API 模式建立模型
"""
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
"""
原始数据 X_raw, y_raw
"""
X_raw = np.array([2013, 2014, 2015, 2016, 2017, 2018], dtype=np.float32)
y_raw = np.array([12000, 14000, 15000, 16500, 17500, 18400], dtype=np.float32)
"""
进行归一化,转换为了 0,1 之间的值
"""
X = (X_raw - X_raw.min()) / (X_raw.max() - X_raw.min())
y = (y_raw - y_raw.min()) / (y_raw.max() - y_raw.min())
X = X.reshape(-1,1)
y = y.reshape(-1,1)
X = tf.constant(X, dtype=tf.float32)
y = tf.constant(y, dtype=tf.float32)
#构建模型
model = tf.keras.models.Sequential([
tf.keras.layers.Dense(1)
])
# 编译模型,设置了损失函数,优化器,评估工具
model.compile(
optimizer=tf.keras.optimizers.SGD(learning_rate=5e-4),
loss=tf.losses.MeanSquaredError(),
metrics=[tf.keras.metrics.mean_squared_error]
)
# 训练模型
model.fit(X, y, epochs=20000)
# 评估模型
y_pred = model.predict(X)
plt.cla()
plt.scatter(X, y)
plt.plot(X, y_pred, 'r-', lw=5)
model.evaluate(X, y, verbose=2)
运行
循环两万次的效果如下:
。
总结
本文完成了一个最简单的tensorflow 训练模型,摆脱了手工计算损失,梯度等问题。对一元函数的神经网络训练差不多就结束了, 后续将在这个基础上,体会二元,三元函数的训练和一元有什么区别。
在升级原始数据到 二元函数之前,下一篇会先讨论一下 EarlyStopping(训练停止)的使用问题。