2021-08-18使用TensorFlow图层的“kernel_constraint”实现权重规范化

在[1],Salimans等人 . 提出了一种神经网络归一化技术,称为权重归一化,它对网络层的权重向量进行归一化,与例如批量归一化相反,后者规范化流经该层的实际数据批量 . 在某些情况下,权重归一化方法的计算开销较低,并且还可以在使用批量归一化不可行的情况下使用 .

由优化器更新后应用于内核的可选投影函数(例如,用于实现层权重的范数约束或值约束) .

我的问题是:是否可以使用上述TensorFlow图层来实现权重标准化 kernel_constraint ?假设 x 是一个形状为 (batch, height, width, channels) 的输入,我想我可以按如下方式实现它:

x = tf.layers.conv2d(
    inputs=x,
    filters=16,
    kernel_size=(3, 3),
    strides=(1, 1),
    kernel_constraint=lambda kernel: (
        tf.nn.l2_normalize(w, list(range(kernel.shape.ndims-1)))))
tf.keras.constraints.UnitNorm(
    axis=0
)
# define model
model = Sequential()
model.add(Dense(500, input_dim=2, activation='relu', kernel_constraint=unit_norm()))

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值