『Keras』Keras 采用 finetune 时冻结部分网络层

一、使用背景

在使用 keras 进行 finetune 有时需要冻结一些网络层加速训练

keras中提供冻结单个层的方法:layer.trainable = False

二、冻结 model 所有网络层

base_model = DenseNet121(include_top=False, weights="imagenet", input_shape=(224, 224, 3))
for layer in base_model.layers:
    layer.trainable = False

三、冻结 model 某些网络层

在 keras 中除了从 model.layers 取得 layer,我们还可以通过 model.get_layer(layer_name) 获取。

base_model = VGG19(weights='imagenet')
base_model.get_layer('block4_pool').trainable = False

如何知道 layer_name?

答案是通过 model.summary() 输出一下
如下所示,最左面一列就是 layer_name(注意是括号外面的)

__________________________________________________________________________________________________
Layer (type)                    Output Shape         Param #     Connected to
==================================================================================================
input_1 (InputLayer)            (None, 224, 224, 3)  0
__________________________________________________________________________________________________
NASNet (Model)                  (None, 7, 7, 1056)   4269716     input_1[0][0]
__________________________________________________________________________________________________
resnet50 (Model)                (None, 7, 7, 2048)   23587712    input_1[0][0]
__________________________________________________________________________________________________
densenet121 (Model)             (None, 7, 7, 1024)   7037504     input_1[0][0]
__________________________________________________________________________________________________
global_average_pooling2d_1 (Glo (None, 1056)         0           NASNet[1][0]
__________________________________________________________________________________________________
global_average_pooling2d_2 (Glo (None, 2048)         0           resnet50[1][0]
__________________________________________________________________________________________________
global_average_pooling2d_3 (Glo (None, 1024)         0           densenet121[1][0]
__________________________________________________________________________________________________
concatenate_5 (Concatenate)     (None, 4128)         0           global_average_pooling2d_1[0][0]
                                                                 global_average_pooling2d_2[0][0]
                                                                 global_average_pooling2d_3[0][0]
__________________________________________________________________________________________________
dropout_1 (Dropout)             (None, 4128)         0           concatenate_5[0][0]
__________________________________________________________________________________________________
classifier (Dense)              (None, 200)          825800      dropout_1[0][0]
==================================================================================================
Total params: 35,720,732
Trainable params: 825,800
Non-trainable params: 34,894,932
__________________________________________________________________________________________________
None

参考链接

  1. https://xiaosongshine.blog.csdn.net/article/details/89263191
  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 5
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

libo-coder

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值