对于TF2.0无法使用tf.contrib.layers.l2_regularizer的替代方法,使用tf.nn.l2_loss的替代方法

最近在对于MNIST数据集进行训练学习的时候会对L2正则化,但是对于稍微高级一点的版本中我们会发现说是因为contrib这个库不稳定,从而在高级一点的版本中删除了contrib这个库,如果想使用L2正则化就得用其他方法,从而发现一个近似的L2正则化的API,tf.nn.l2_loss,这个和tf.contrib.layers.l2_regularizerd 的区别在于什么地方呢?
L2正则化则是求参数的二维范数也就是欧氏距离,不要我们在使用的时候会将结果乘一个较小的值γ,我们的正则化损失则是计算这个东西,而对于tf.contrib.layers.l2_regularizerd,可以以如下这种形式计算

regularizerd_L2 = tf.contrib.layers.l2_regularizerd(0.01)
loss = regularizerd_L2(a)

这个0.01就是我们所要乘的这个值γ,但是实际上函数会自己除一个2以得到比较稳定的结果所以我们这个γ的真实值为0.005,同时我们还有一个函数tf.nn.l2_loss,这个也是计算L2正则损失,使用方法如下

loss = tf.nn.l2_loss(a)

计算二位范数实际上是把每个数单独平方之后开根号,和计算什么方差啊之类的有一点点像,但是tf.nn.l2_loss这个函数他只是平方之后,直接除以二,没有其他操作。那我们打个比方,所有的数的平方和为sum,那么上面的函数就是
(sum ** 0.5)* 0.5 *0.01

而对于下面的函数计算则是

sum * 0.5

所以我们想要等效实现最上面的一段代码我们可以这样去改

loss = ((tf.nn.l2_loss(a) * 2) ** 0.5) * 0.5 * 0.01

0.01就是你在tf.contrib.layers.l2_regularizerd()中参数的值,对应修改即可

  • 10
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 15
    评论
评论 15
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值