![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 91
luffytom
学生一枚,前来学习
展开
-
神经网络的优化——L2正则化
最近在学习神经网络的相关知识,希望通过写博客记录下学习时的感悟,督促、勉励自己。正则化关于神经网络优化的主要方面是避免神经网络的过拟合,提高模型的泛化能力,常用的方法有:L1、L2正则化,dropout、权重的初始化等。其中正则化在深度学习中的线性传播中用的最多,在反向求导的过程中起到惩罚权重的作用。 L2正则化原理其实很简单: J=J+λ2m∑ww2J = J +\frac{\lambda}{原创 2017-10-22 22:25:49 · 1908 阅读 · 0 评论 -
TensorFlow_gpu版本 python库安装流程(包括驱动,cuda,cudnn)
NVIDIA驱动、cuda、cuDNN、Tensorflow安装原创 2017-11-05 11:07:30 · 762 阅读 · 0 评论 -
Tensorflow的持久化与重载
Tensorflow的参数公用,持久化与重载1. 参数共用问题:tf.variable_scope(name)tf.get_variable(name, shape, dtype, initializer)在搭建网络的时候,一般都会通过variable_scope(name)来定义我们的命名域,方便图的结构展示,此时的op的名字就会变成:name/opname,方便统一的管理...原创 2018-02-20 16:04:03 · 398 阅读 · 0 评论