一、正则:(惩罚项)
L1正则:和 ||w||1
L2正则:平方和 ||w||2
后面的正则化项系数是样本数分之一,因为样本越多需要惩罚的值越小
接下来讨论
为什么要使用正则?
在什么位置使用正则?
怎么加正则项呢?
正则参数如何设置?
当模型出现过拟合时,使用正则来学习W抑制噪点的权值。
全链接层,通过可视化波动比较大的层
以下是L2各个lamda取值的结果:自己去找感觉设置吧
regularizer = tf.contrib.layers.l2_regularizer(0.0001)
regularizer = tf.contrib.layers.l2_regularizer(0.001)
regularizer = tf.contrib.layers.l2_regularizer(0.01)