一.用Tensorflow API:tf.keras搭建网络八股
六步法搭建神经网络
1.import相关模块
2.告知要喂入网络的训练集和测试集
指定训练集的输入特征x_train和训练集的标签y_train
指定测试集的输入特征x_test和训练集的标签y_test
3.在Sequential() 中搭建网络结构
逐层描述每层网络,相当于走了一遍前向传播
Sequential()可以认为是个容器,这个容器里封装了一个神经网络结构,在其中要描述从输入层到输出层每一层的网络结构。
每一层的网络结构可以是如下:
(1)拉直层:
tf.keras.layers.Flatten()
这一层不含计算,只是形状转换,把输入特征拉直,变成一维数组
(2)全连接层:
tf.keras.layers.Dense(神经元个数, activation="激活函数", kernel_regularizer=哪种正则化)
激活函数可选relu、softmax、sigmoid、tanh
正则化可选l1、l2
(3)卷积层:
tf.keras.layers.Conv2D(filters=卷积核个数, kernel_size=卷积核尺寸, strides=卷积歩长, padding="valid" or "same")
(4)LSTM层:
tf.keras.layers.LSTM()
4. 在compile()中配置训练方法
告知训练时选择哪种优化器,选择哪个损失函数,选择哪种评测指标
model.compile(optimizer=优化器,
loss=损失函数
metrics=["准确率"])
Optimizer可选:
可以是’sgd’、‘adagrad’、‘adadelta’、‘adam’,还可以是函数形式,如:tf.keras.optimizers.SGD(lr=学习率, momentum=动量参数),使用函数形式可以设定学习率、动量等超参数
Loss可选:
可以是字符串给出的损失函数名字,‘mse’、‘sparse_categorical_crossentropy’,也可以是函数形式tf.keras.losses.MeanSquaredError()或tf.keras.losses.SparseCategoricalCrossentropy(from_logits=False),from_logits这个参数是在询问是否原始输出,也就是没有经过概率分布的输出,False:神经网络预测结果输出前经过了概率分布
Metrics可选:
‘accuracy’:y_和y都是数值,y_=[1] y=[1]
‘categorical_accuracy’:y_和y都是独热码(概率分布)
‘sparse_categorical_accuracy’:y_是数值,y是独热码,如y_=[1] y=[0.256, 0,695, 0.048]
5.在fit()中执行训练过程
告知训练集和测试集的输入特征和标签,告知每个batch是多少,告知要迭代多少次数据集
model.fit(训练集的输入特征, 训练集的标签,
batch_size= , epochs= ,
validation_data=(测试集的输入特征, 测试集的标签), # validation_data和validation_split二者选一
validation_split=从训练集划分多少比例给测试集,
validation_frep=多少次epoch测试一次
)
6.用summary()打印网络的结构和参数统计
model.summary()
二.用类class搭建神经网络结构
Sequential()只能搭建出上层输出就是下层输入的顺序网络结构,但是无法写出一些带有跳连的非顺序网络结构,这时候选择用类class搭建神经网络结构
class MyModel(Model):
def __init__(self):
super(MyModel, self).__init__()
定义网络结构块
def call(self, x):
调用网络结构块,实现前向传播
return y
model = MyModel()
比如:
class IrisModel(Model):
def __init__(self):
super(IrisModel, self).__init__()
self.d1 = Dense(3)
def call(self, x):
y = self.d1(x)
return y
model = IrisModel()