python-第三方库-tensorflow
北海北_CrazyZheng
这个作者很懒,什么都没留下…
展开
-
TensorFlow 学习(一): Win10配置GPU版本tensorflow
ubuntu18 配置教程:https://blog.csdn.net/xierhacker/article/details/53035989win10参考:https://blog.csdn.net/weixin_39290638/article/details/80045236我的独显型号:GTX940MX ,垃圾thinkpad1、下载安装Anaconda默认使用最新的pyt...原创 2019-02-22 15:34:49 · 464 阅读 · 0 评论 -
TensorFlow 学习(十):CNN-改进算法
C1层是一个卷积层6个特征图,每个特征图中的每个神经元与输入中5*5的邻域相连,特征图大小为28*28每个卷积神经元的参数数目:5*5=25个weight参数和一个bias参数链接数目:(5*5+1)*6*(28*28)=122304个链接参数共享:每个特征图内共享参数,因此参数总数:共(5*5*1)*6=156个参数S2层是一个下采样层6个14*14的特征图,...原创 2019-03-02 11:59:41 · 2228 阅读 · 0 评论 -
TensorFlow 学习(九):CNN-梯度下降
一、介绍梯度下降是常用的卷积神经网络模型参数求解方法求参数过程即最小化损失函数过程。比如有一个含有D个训练数据的数据集,损失函数如下:下面比较8种梯度下降方法:批量梯度下降法(Batch Gradient Descent)随机梯度下降法(Stochastic gradient descent)小批量梯度下降法(Mini-Batch Gradient Descent...原创 2019-03-02 11:37:38 · 4604 阅读 · 0 评论 -
TensorFlow 学习(七):CNN
保持了层级网络结构不同层次使用不同的形式(运算)与功能数据输入层:Input Layer卷积计算层:CONV LayerReLU激励层:ReLU Incentive Layer池化层:Pooling Layer全连接层:FC Layer备注:Batch Normalization Layer(可能有)和神经网络/机器学习一样,需要对输入的数据需要...原创 2019-03-02 11:28:06 · 532 阅读 · 0 评论 -
TensorFlow 学习(六):BP、RBF
BP算法也叫做δ算法是一种参数求解的方式案例;要求输入(5,10),输出(0.01,0.99)假设:计算h1的输出:同理可得:计算o1,o2的输出:计算输出误差:计算:已知:其中:(,)()所以:其实可以归纳公式:最终可求:同理可得:接下来需要求:已知:其中...原创 2019-03-02 11:05:12 · 1539 阅读 · 0 评论 -
TensorFlow 学习(五):深度学习、神经网络
tensoroperation(返回结果tensor)在S型神经元中,和感知器神经元的区别在于:对于结果值z的转换,采用的不是sign函数进行转换,是采用平滑类型的函数进行转换,让输出的结果值y最终是一个连续的,S型神经元转指使用的是sigmoid函数。激活函数的主要作用是提供网络的非线性建模能力。只有加入了激活函数之后,深度神经网络才具备了分层的非线性映射学习能力。 ...原创 2019-03-02 11:01:40 · 381 阅读 · 0 评论 -
TensorFlow 学习(四):常用API
数据类型转换相关APITensor Shape获取以及设置相关API Tensor合并、分割相关APIError相关类API常量类型的Tensor对象相关API序列和随机Tensor对象相关APISession相关API逻辑运算符...原创 2019-02-28 23:44:14 · 233 阅读 · 0 评论 -
TensorFlow 学习(三):作用域、分布式
变量的作用域:with块里的变量,块外也能用。name_scope和variable_scope import tensorflow as tf def my_func(x): w1 = tf.Variable(tf.random_normal([1]))[0] b1 = tf.Variable(tf.random_normal([1]))[0] ...原创 2019-02-28 20:51:53 · 535 阅读 · 0 评论 -
TensorFlow 学习(二):图、会话
重点:图会话变量张量fetch,feed-------------------------------tensorflow国内外官网:https://tensorflow.org/https://tensorflow.google.cn/实际上就是numerical computation using data flow graphstensorflow...原创 2019-02-22 16:01:16 · 542 阅读 · 0 评论 -
TensorFlow 学习(八):CNN-激活函数
1、激活函数更新W有两种方法:穷举法、梯度下降法如何选择激活函数? 通常来说,很少会把各种激活函数串起来在一个网络中使用。 如果使用 ReLU ,那么一定要小心设置学习率(learning rate ),预防出现过多的“神经元死亡”问题。 如果这个问题不好解决,那么可以试试 Leaky ReLU 、 PReLU 或者 Maxout。 最好不要用 sigmoid ,可以试试 t...原创 2019-03-08 21:08:47 · 1935 阅读 · 0 评论