步骤
- 导入相关模块
- 准备训练集和测试集
- 在Sequential中搭建神经网络,逐层描述每层神经网络
- 在compile中选择配置训练方法,告知优化器,损失函数,评测指标
- 用fit函数进行训练
- 用summary打印出网络结果和参数统计
函数提要
# 搭建网络结构
tf.keras.models.Sequential([第一层,第二层,...,第n层])
# 每一层使用什么层,可以去tf.keras.layers包中去寻找,以下举几个例子:
tf.keras.layers.Flatten():平铺层
tf.keras.layers.Dense():全连接层
tf.keras.layers.Conv2D():卷积层
# 配置神经网络的训练方法,这里的model是上一个函数的返回值,参数全是可选的
model.compile(optimizer=优化器,
loss=损失函数,
metrics=评测指标)
# 优化器
在tf.keras.optimizers包中
# 损失函数
在tf.keras.losses包中
# 衡量指标
在tf.keras.metrics包中
# 训练模型,model是Sequential生成的模型
model.fit(输入特征,
输出特征,
batch_size=每次训练的样本数,
epochs=迭代的次数)
# 打印网络结构,model是Sequential生成的模型
model.summary()
鸢尾花代码覆写
在笔记二中,用tensorflow原生代码写过鸢尾花分类,这里覆写那个程序。
import tensorflow as tf
from sklearn import datasets
import numpy as np
x_train = datasets.load_iris().data
y_train = datasets.load_iris().target
np.random.seed(116)
np.random.shuffle(x_train)
np.random.seed(116)
np.random.shuffle(y_train)
tf.random.set_seed(116)
model = tf.keras.models.Sequential([
tf.keras.layers.Dense(3, activation='softmax', kernel_regularizer=tf.keras.regularizers.l2())
])
model.compile(optimizer=tf.keras.optimizers.SGD(lr=0.1),
loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=False),
metrics=['sparse_categorical_accuracy'])
model.fit(x_train, y_train, batch_size=32, epochs=500, validation_split=0.2, validation_freq=20)
model.summary()
自定义非顺序线性的神经网络
# Model表示继承tensorFlow的Model类
class 类名(Model):
def __init__(self):
super(类名,self).__init__()
定义网络结构块
# y是最终的输出层,x是输入数据
def call(self,x):
调用网络结构块,实现前向传播
return y
# __init__():定义所需网络结构块
# call():将网络结构块进行组装,实现前向传播
改写鸢尾花分类
import tensorflow as tf
from tensorflow.keras.layers import Dense
from tensorflow.keras import Model
from sklearn import datasets
import numpy as np
x_train = datasets.load_iris().data
y_train = datasets.load_iris().target
np.random.seed(116)
np.random.shuffle(x_train)
np.random.seed(116)
np.random.shuffle(y_train)
tf.random.set_seed(116)
class IrisModel(Model):
def __init__(self):
super(IrisModel, self).__init__()
self.d1 = Dense(3, activation='softmax', kernel_regularizer=tf.keras.regularizers.l2())
def call(self, x):
y = self.d1(x)
return y
model = IrisModel()
model.compile(optimizer=tf.keras.optimizers.SGD(lr=0.1),
loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=False),
metrics=['sparse_categorical_accuracy'])
model.fit(x_train, y_train, batch_size=32, epochs=500, validation_split=0.2, validation_freq=20)
model.summary()