目录
1. 深度可分离卷积
1.1 深度可分离卷积的好处
正常卷积:
原始图像是二维的,大小是12x12。由于是RGB格式的,所以有三个通道,这相当于是一个3维的图片。其输入图片格式是:12x12x3。滤波器窗口大小是5x5x3。这样的话,得到的输出图像大小是8x8x1(padding模式是valid)。
[batch, 12, 12, 3] @ [5, 5, 3, 1]=> [batch, 8, 8, 1]: 卷积核个数为1
[batch, 12, 12, 3] @ [5, 5, 3, 256]=> [batch, 8, 8, 256]: 卷积核个数为256
深度可分离卷积:
共分为两步,第一步是深度卷积,对输入的每个通道进行卷积计算:
[batch, 12, 12, 3] @ [5, 5, 1, 3] => [batch, 8, 8, 3]
第二步是逐点卷积:
[batch, 8, 8, 3] @ [1, 1, 3, 256] => [batch, 8, 8, 256]:
深度可分离卷积能够大量减少参数量,
正常卷积参数量:
深度可分离卷积参数量:
正常卷积参数量 / 深度可分离卷积参数量 =
由此可发现,深度可分离卷积相比于正常卷积可以大大减少参数量。
https://arxiv.org/abs/1808.05517
https://arxiv.org/abs/1610.02357
2. 基于CIFAR-10数据集构建分类模型
CIFAR-10数据集包含10大类目标,其中训练集有50K张图片,测试集有10K张图片:
(x_train, y_train), (x_test, y_test) = tf.keras.datasets.cifar10.load_data()
TensorFlow中包含该数据集,可以通过上方命令读取数据集
2.1 数据预处理
def data_process():
"""
加载并预处理数据
:return:
"""
(x_train, y_train), (x_test, y_test) = tf.keras.datasets.cifar10.load_data()
# 归一化处理
x_train = tf.cast(x_train, dtype=tf.float32) / 255.0
x_test = tf.cast(x_test, dtype=tf.float32) / 255.0
# 将标签ont-hot
y_train = tf.keras.utils.to_categorical(y_train, num_classes=10)
y_test = tf.cast(y_test, tf.int32)
# 减少维度,用于测试,[10000, 1] => (10000,)
y_test = tf.squeeze(y_test, axis=1)
# print(y_train.shape)
train_db = tf.data.Dataset.from_tensor_slices((x_train, y_train))
# batch_size 为64
train_db = train_db.shuffle(1000).batch(64)
test_db = tf.data.Dataset.from_tensor_slices((x_test, y_test)).batch(64)
return [train_db, test_db]
2.2 模型构建
2.2.1 卷积块构建
卷积块包含卷积层,批量正则化层, 激活函数层
def conv_block(inputs, filters, kernel_size = (3,3), strides=(1,1)):
x = tf.keras.layers.Conv2D(filters=filters, kernel_size=kernel_size, strides=strides,
padding='SAME', use_bias=False)(inputs)
x = tf.keras.layers.BatchNormalization()(x)
out = tf.keras.layers.Activation(