Tensorflow 模型优化

一、正则:(惩罚项)

L1正则:和   ||w||1 

L2正则:平方和      ||w||2

Loss = \frac{1}{m}\sum (y-\hat{y})^{2} +\frac{1}{m}\sum w^{2}

后面的正则化项系数是样本数分之一,因为样本越多需要惩罚的值越小

接下来讨论

为什么要使用正则? 

在什么位置使用正则?

怎么加正则项呢?

正则参数如何设置?

当模型出现过拟合时,使用正则来学习W抑制噪点的权值。

全链接层,通过可视化波动比较大的层

以下是L2各个lamda取值的结果:自己去找感觉设置吧

 

regularizer = tf.contrib.layers.l2_regularizer(0.0001)

 

regularizer = tf.contrib.layers.l2_regularizer(0.001)

regularizer = tf.contrib.layers.l2_regularizer(0.01) 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值