![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
weixin_44766038
这个作者很懒,什么都没留下…
展开
-
常用激活函数Sigmoid & Softmax & ReLU& Tanh的整理总结
激活函数使用原因: 1、如果不用激励函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合。 2、如果使用的话,激活函数给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,这样神经网络就可以应用到众多的非线性模型中。 比如,在单层感知机中,分类的结果大于某个值为一类,小于某个值为一类,这样的话就会使得输出结果在这个点发生阶跃,logistic函数(sig...原创 2019-11-08 23:36:43 · 2032 阅读 · 0 评论 -
深度学习tensorflow:线性回归
原创 2019-09-27 17:20:27 · 127 阅读 · 0 评论 -
深度学习tensorflow:非线性回归
原创 2019-09-27 18:24:48 · 217 阅读 · 0 评论 -
深度学习tensorflow:MNIST数据集分类简单版本
原创 2019-09-27 22:07:23 · 139 阅读 · 0 评论 -
深度学习tensorflow:交叉熵
由上图看出,梯度的的大小跟(y-t)即是误差大小成正比,误差越大,梯度越大。原创 2019-09-27 22:25:31 · 83 阅读 · 0 评论 -
深度学习tensorflow:Dropout
关键点在于参数keep_prob,设置可工作的神经元比例。Dropout的作用主要是防止过拟合,但是它的准确率有时会比不使用Dropout低,需要根据具体的情况来决定是否使用 根据结果,对比Test和Train的准确率可以看出,两者之间相差很小,说明泛化性比较强,防止过拟合做的很好。 ...原创 2019-09-28 10:54:23 · 90 阅读 · 0 评论 -
深度学习tensorflow:正则化
![在这里插入图片描述](https://img-blog.csdnimg.cn/20190928111808703.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDc2NjAzOA==,size_16,color...原创 2019-09-28 11:22:56 · 128 阅读 · 0 评论 -
深度学习tensorflow:优化器
从结果可以看出:使用Adam优化器效果明显好于单纯用梯度下降法优化器原创 2019-09-28 21:43:44 · 145 阅读 · 0 评论