![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Tensorflow
鲁班班班七号
这个作者很懒,什么都没留下…
展开
-
Tensorflow 定义变量,函数,数值计算等名字的更新
左为旧版,右为更新到1.0版本后的名字定义变量的更新tf.VARIABLES ——> tf.GLOBAL_VARIABLEStf.all_variables ——> tf.global_variablestf.initialize_all_variables ——> tf.global_variables_initializertf.initialize_local...转载 2018-07-03 11:31:32 · 443 阅读 · 0 评论 -
tf.layers.conv2d_transpose
1.函数原型tf.layers.conv2d_transpose(inputs,filters,kernel_size,strides=(1, 1),padding=’valid’,data_format=’channels_last’,activation=None,use_bias=True,kernel_initializer=None,bias_initializer...原创 2018-10-10 11:02:56 · 668 阅读 · 0 评论 -
tf.nn.atrous_conv2d
1.函数原型tf.nn.atrous_conv2d(value,filters,rate,padding,name=None)2.函数说明value:指需要做卷积的输入图像,要求是一个4维Tensor,具有[batch, height, width, channels]这样的shape,具体含义是[训练时一个batch的图片数量, 图片高度, 图片宽度, 图像通道数]filters:...原创 2018-10-10 15:07:33 · 1231 阅读 · 0 评论 -
tf.train.Saver()
1.实例化对象saver=tf.train.Saver(max_to_keep=1)max_to_keep: 表明保存的最大checkpoint 文件数。当一个新文件创建的时候,旧文件就会被删掉。如果值为None或0,表示保存所有的checkpoint 文件。默认值为5(也就是说,保存最近的5个checkpoint 文件)。keep_checkpoint_every_n_hour: 除...原创 2018-10-26 21:42:27 · 9167 阅读 · 4 评论 -
tf.argmax()
原型:tf.argmax(array,axis)用法: 针对传入函数的axis参数,去选取array中相对应轴元素值大的索引!输入: 一个向量或者一个矩阵或者一个张量返回: vector中的最大值的索引号,如果vector是一个向量,那就返回一个值,如果是一个矩阵,那就返回一个向量,这个向量的每一个维度都是相对应矩阵行的最大值元素的索引号。...原创 2018-10-30 15:34:21 · 350 阅读 · 0 评论 -
sess.run()
1.函数原型tf.Session.run(fetches, feed_dict=None)2.函数功能Runs the operations and evaluates the tensors in fetches.3.函数参数参数fetches: A single graph element, or a list of graph elements (described abov...原创 2018-10-27 21:38:48 · 3165 阅读 · 0 评论 -
tf.cond()
tf.cond(pred, fn1, fn2, name=None)说明: 由于tensorflow使用的是graph的计算概念,tf.cond()类似于c语言中的if…else…,用来控制数据fn1和fn2的流向。比喻: 这里这个tf.cond也就像个控制水流的阀门,水流管道fn1,fn2在这个阀门交汇,而tf.cond决定了谁将流向后面的管道,但是不管哪一个水流流向下一个管道,在阀门作用之...原创 2018-12-04 21:54:07 · 595 阅读 · 0 评论 -
tf.Variable() tf.get_variable() tf.variable_scope() tf.name_scope
tensorflow提供了通过变量名称来创建或者获取一个变量的机制:TensorFlow中通过变量名获取变量的机制主要是通过tf.get_variable和tf.variable_scope实现的。通过这个机制,在不同的函数中可以直接通过变量的名字来使用变量,而不需要将变量通过参数的形式到处传递。当然,变量也可以通过tf.Varivale来创建。当tf.get_variable用于变量...原创 2018-12-05 10:52:20 · 84 阅读 · 0 评论 -
tf.nn.max_pool()
tf.nn.max_pool(value, ksize, strides, padding, name=None)参数是四个,和卷积很类似:第一个参数value:需要池化的输入,一般池化层接在卷积层后面,所以输入通常是feature map,依然是[batch, height, width, channels]这样的shape第二个参数ksize:池化窗口的大小,取一个四维向量,一般...原创 2018-12-03 20:48:36 · 97 阅读 · 0 评论 -
tf.squeeze
函数原型tf.squeeze(input, squeeze_dims=None, name=None)说明该函数返回一个张量,这个张量是将原始input中所有维度为1的那些维都删掉的结果。如果不想删除所有大小是1的维度,可以通过squeeze_dims指定...原创 2018-10-10 10:41:50 · 457 阅读 · 0 评论 -
Tensoflow_Batch_Normalization
1.Batch normalization的公式y=γ(x−μ)/σ+βy=γ(x-μ)/σ+βy=γ(x−μ)/σ+β其中:xxx是输入,yyy是输出,μμμ是均值,σσσ是方差,γγγ是缩放系数(scale),βββ是偏移(offset)系数。2. Batch normalization介绍批标准化(batch normalization,BN),一般用在激活函数之前,使结果y=w...原创 2018-10-09 20:56:41 · 128 阅读 · 0 评论 -
tf.nn.conv2d 介绍及使用
介绍tf.nn.conv2d 是TensorFlow里面实现卷积的函数函数原型tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)参数除去name参数用以指定该操作的name,与方法有关的一共五个参数:第一个参数input: 指需要做卷积的输入图像,它要求是一个Tensor,具有[...原创 2018-10-09 15:55:58 · 872 阅读 · 0 评论 -
简单神经网络解决二分类问题示例(Tensorflow)(自定义损失函数)
简单神经网络解决二分类问题示例(Tensorflow)(自定义损失函数)在预测商品销量时,如果预测多了,商家损失的是生产商品的成本;而如果预测少了,损失的则是商品的利润。针对这种模型可以自己定义损失函数。自定义损失函数为: Loss(y,y′)=∑i=1nf(yi,y′i),f(x,y)={a(x−y);x>yb(y−x);x<=yLoss(y,y′)=∑i=1nf(yi...原创 2018-07-03 15:08:17 · 3312 阅读 · 0 评论 -
Ubuntu16.04下Nvidia驱动、CUDA、cuDNN、tensorflow-gpu安装教程
一、CUDA9.0下载&amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;amp;安装CUDA9.0下载地址 1.选择自己的操作系统,处理器架构,软件发行版本,操作系统版本号,安装文件类型如下:原创 2018-07-16 16:31:34 · 1216 阅读 · 0 评论 -
神经网络的过拟合问题
神经网络的过拟合问题神经网络模型训练会出现三种情况:模型过于简单,模型合理,过拟合。 为避免过拟合问题,常常使用正则化方法正则化的思想是: 在损失函数中加入刻画模型复杂程度的指标。 模型优化时需要优化该损失函数:J(θ)+λR(w)J(θ)+λR(w)J(\theta)+\lambda R(w) 其中:θθ\theta 表示的是一个神经网络的所有参数,包括权重www和偏置bbb;...原创 2018-07-03 16:33:42 · 1551 阅读 · 0 评论 -
tf.app.run()的作用
tf.app.run()的作用了解tf.app.run()的作用前, 我们首先看一下app.py这个模块中run()函数的源码:def run(main=None, argv=None): """Runs the program with an optional 'main' function and 'argv' list.""" f = flags.FLAGS # ..原创 2018-07-03 21:14:31 · 780 阅读 · 0 评论 -
Ubuntu16.04下,在Anaconda环境下安装tensorflow-gpu
在安装好Anaconda环境,并配好环境的前提下,安装tensorflow-gpu 安装tensorflow-gpuconda install -c conda-forge tensorflow-gpu或者安装keras-gpu keras-gpu自带Nvidia Gpu和tensorflow安装配置属性,可根据系统自行检测安装环境及工具包conda install keras-g...原创 2018-07-18 10:12:29 · 420 阅读 · 0 评论 -
tensorflow:错误 InternalError: Dst tensor is not initialized
跑tensorflow 的CNN程序时,出现了一个错误,记录如下:错误: InternalError: Dst tensor is not initialized.分析:出现这个错误一般是GPU内存耗尽,挂在后台进程中的IPython内核会这样做解决办法:运行程序之前,先运行export CUDA_VISIBLE_DEVICES=1,仅显卡设备1GPU可见,tensorflow 算是一...原创 2018-07-19 21:56:46 · 827 阅读 · 0 评论 -
ValueError: Only call `softmax_cross_entropy_with_logits` with named arguments (labels=..., logits=.
ValueError: Only call softmax_cross_entropy_with_logits with named arguments (labels=…, logits=…, …)解决办法如下:loss = tf.reduce_mean(tf.nn.sparse_softmax_cross_entropy_with_logits(logits, train_labe...原创 2018-07-19 22:28:33 · 182 阅读 · 0 评论 -
failed call to cuInit: CUDA_ERROR_NO_DEVICE
网上找了下相关问题:有两种解决方案方案一 代码中添加:import osos.environ['CUDA_VISIBLE_DEVICES'] = "0"方案二with tf.Session(config=tf.ConfigProto(log_device_placement=True)) as sess:推荐方案1,因为方案二会打印一堆gpu信息...原创 2018-07-19 22:56:01 · 5568 阅读 · 1 评论 -
tf.nn.dropout()
tf.nn.dropout(x, keep_prob, noise_shape = None, seed=None, name=None)x:指张量输入keep_prob: 保留结果的比例,每个元素被保存的概率作用:tensorflow中的dropout就是:使输入tensor中每个元素以概率keep_prob变为0;其它没变0的元素的值,变为原来的1/keep_prob大小!...原创 2018-12-03 21:55:11 · 520 阅读 · 0 评论