TensorFlow
王致列
在成为全栈工程师的路上一直努力着!
展开
-
TensorFlow(七)--自己设计神经网络实现手写数字识别,准确率达0.98
1.设计的网络包含两个隐藏层,分别有500和300个神经元。2.优化器采用Adam3.学习率为0.001*(0.95**epoch),随着迭代次数的增加而减小话不多说,直接上代码:import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data#载入数据集mnist = input_d...原创 2020-02-12 12:19:14 · 525 阅读 · 0 评论 -
TensorFlow基础(六)--TensorFlow中常用的优化器的对比与选择(Optimizer)
目录1.优化器的作用2.常用的优化器(Optimizer)3.各种优化器的对比3.1三种梯度下降法的对比3.2 SGD(梯度下降)3.3 Momentum3.4 NAG(Nesterov accelerated gradient)3.5 Adagrad3.6 RMSprop3.7 Adadelta3.8 Adam4.优化器的选择5.演示示例1.优化器的作用优化器是用来最小化损失函数的方法,也就...原创 2020-02-11 14:09:00 · 5027 阅读 · 0 评论 -
Tensorflow基础(五)--如何防止过拟合,Dropout的使用
目录1.拟合2.防止过拟合的方法3.演示代码1.拟合回归问题拟合可能情况:分类问题拟合可能情况:过拟合是能把训练样本很好甚至百分之百拟合,但是如果来了一批新样本,他的准确率又会非常低。正确拟合应该是在训练样本和新样本中都有一致且较好的准确率。2.防止过拟合的方法过拟合一般是数据集太小,神经网络又太复杂导致的。就比如我们解方程的时候,已知情况少,而未知变量过多,这样的话就求不出应有的...原创 2020-02-10 16:25:56 · 775 阅读 · 0 评论 -
Tensorflow基础(四)--激活函数(Sigmoid、tanh);损失函数(二次代价函数、交叉熵代价函数、对数释然代价函数)
目录1.激活函数1.1双曲正切函数与Sigmoid函数2.损失函数(代价函数)2.1 L1范数损失函数2.2 L2范数损失函数2.3 二次代价函数2.4 交叉熵代价函数2.5 对数释然代价函数(log-likelihood cost)3.演示代码1.激活函数激活函数的想法来自对人脑中神经元工作机理的分析。神经元在某个阈值(也称活化电位)之上会被激活。大多数情况下,激活函数还意在将输出限制在一个...原创 2020-02-09 17:29:37 · 2141 阅读 · 0 评论 -
Tensorflow基础(三)--非线性回归、MNIST手写数字识别分类
目录3-1非线性回归3-2 MNIST手写数字识别分类MNIST数据集softmax函数简单实现MNIST手写数字识别3-1非线性回归3-2 MNIST手写数字识别分类MNIST数据集MNIST是在机器学习领域中的一个经典问题。该问题解决的是把28x28像素的灰度手写数字图片识别为相应的数字,其中数字的范围从0到9.MNIST是一个入门级的计算机视觉数据集,它包含各种手写数字图片:它...原创 2020-02-08 21:24:22 · 439 阅读 · 0 评论 -
Tensorflow基础(二)--练习
2-1创建图,启动图2-2变量2-3Fetch和Feed2-4TensorFlow简单示例原创 2020-02-07 23:56:07 · 239 阅读 · 0 评论 -
TensorFlow基础
深度学习在模式识别方向,尤其是在图像、声音、语音、语言和时间序列数据上表现出色。运用深度学习,你可以对数据进行分类、预测、聚类以及特征提取。2015年11月,谷歌发布了TensorFlow。TensorFlow在谷歌的大多数产品,比如谷歌搜索、垃圾邮件检测、语音识别、谷歌助手、谷歌即时桌面以及谷歌相册中得到了运用。 TensorFlow具有实施部分子图计算的独特功能,因此可以通过分...原创 2020-06-16 18:41:43 · 361 阅读 · 0 评论