![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
tensorflow
csdn_1HAO
从事图像处理与模式识别,深度学习;常用工具vs,matlab,python,tensorflow,opencv,pytorch
展开
-
tensorflow下载
以下下载的为tensorflow版本为1.2.1GPU python3.6 python3.5https://storage.googleapis.com/tensorflow/windows/gpu/tensorflow_gpu-1.2.1-cp35-cp35m-win_amd64.whlhttps://storage.googleapis.com/tensorflow/wi原创 2017-10-24 16:04:10 · 1981 阅读 · 0 评论 -
tesorflow 填充‘same’与‘valid’
源码:#coding=utf-8import tensorflow as tf# case 2input = tf.Variable(tf.random_normal([1, 256, 256, 3]))op1 = tf.layers.conv2d(inputs=input, filters=164, kernel_size=(7, 7), strides=(2, 2),pa...原创 2018-06-19 11:31:28 · 380 阅读 · 0 评论 -
tf.layers.conv2d
tf.layers.conv2d (inputs, filters, kernel_size, strides=(1, 1), padding='valid', data_format='channel...原创 2018-06-19 11:31:10 · 6648 阅读 · 0 评论 -
tf.clip_by_value()
tf.clip_by_value(A, min, max) 输入一个张量A,把A中的每一个元素的值都压缩在min和max之间。 小于min的让它等于min,大于max的元素的值等于max。...原创 2018-06-19 11:31:19 · 301 阅读 · 0 评论 -
pooling池化
pooling,即池化,layers 模块提供了多个池化方法,这几个池化方法都是类似的,包括 tf.layers.max_pooling1d()、tf.layers.max_pooling2d()、tf.layers.max_pooling3d()、tf.layers.average_pooling1d()、tf.layers.average_pooling2d()、tf.layers.avera...原创 2018-06-12 15:08:34 · 782 阅读 · 0 评论 -
tf.layers.dropout
dropout 是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃, 可以用来防止过拟合,layers 模块中提供了 tf.layers.dropout() 方法来实现这一操作,定义在 tensorflow/python/layers/core.py。下面我们来说明一下它的用法。dropout( inputs, ...原创 2018-06-12 15:08:24 · 7796 阅读 · 0 评论 -
tf.layers.flatten
flatten( inputs, name=None) 参数说明如下:inputs:必需,即输入数据。 name:可选,默认为 None,即该层的名称。原创 2018-06-12 15:08:17 · 6976 阅读 · 10 评论 -
tf.one_hot
tf.one_hot( indices,#输入,这里是一维的 depth,# one hotdimension. on_value=None,#output 默认1 off_value=None,#output 默认0 axis=None,#根据我的实验,默认为1 dtype=None, name=None) ...原创 2018-06-12 15:08:11 · 529 阅读 · 0 评论 -
tf.train.Saver
将训练好的模型参数保存起来,以便以后进行验证或测试,这是我们经常要做的事情。tf里面提供模型保存的是tf.train.Saver()模块。模型保存,先要创建一个Saver对象:如saver=tf.train.Saver()在创建这个Saver对象的时候,有一个参数我们经常会用到,就是 max_to_keep 参数,这个是用来设置保存模型的个数,默认为5,即 max_to_keep=5...原创 2018-06-12 15:08:04 · 373 阅读 · 0 评论 -
tf.transpose
tf.transpose(input, [dimension_1,dimenaion_2,..,dimension_n]) 这个函数主要适用于交换输入张量的不同维度用的,如果输入张量是二维,就相当是转置。dimension_n是整数,如果张量是三维,就是用0,1,2来表示。这个列表里的每个数对应相应的维度。如果是[2,1,0],就把输入张量的第三维度和第一维度交换。import ...原创 2018-06-12 15:07:51 · 183 阅读 · 0 评论 -
VGG
VGG16网络,卷积核3*3,步长为1,填充(padding)为1;池化2*2,步长为2全连接层 卷积核1*1Input Layer:224*224*3图像Conv1-1 Layer:包含64个卷积核,kernal size:3*3*3,stride:1,padding:1 输入图像:224*224*3...原创 2018-06-12 15:07:45 · 2332 阅读 · 2 评论 -
Your CPU supports instructions that this TensorFlow binary was not compiled to use AVX AVX2
大致的原因就是说:tensorflow觉得你电脑cpu还行,支持AVX(Advanced Vector Extensions),运算速度还可以提升,所以可以开启更好更快的模式,但是你现在用的模式相对来说可能不是那么快,所以这个其实并不是存在错误,所以如果不嫌当前的模式慢就忽略掉这个警告就好了。 解决办法为:import osos.environ['TF_CPP_MIN_LOG...原创 2018-06-12 15:07:37 · 236 阅读 · 0 评论 -
归一化方法列举
归一化方法:除以序列最大值的,叫峰归一化;除以序列之和的,叫面积归一化;除以序列的模,叫数值归一化,得到序列的方差为0,均值为1;(1) 线性函数转换,表达式如下:y=(x-MinValue)/(MaxValue-MinValue)y=a+(x-min)/(max-min)*(b-a)(归一到a-b之间)如a=0.1 ; b=0.9y=0.1+(x-min)/(max-min)*(0.9-0.1)...原创 2018-06-12 15:07:27 · 1647 阅读 · 0 评论 -
卷积核输出维度计算
1)卷积层:参数:W:宽; H:高;D:深度;K:卷积核的个数; F:卷积核的大小; S:步长; P:用0填充卷积后输出:W或H=[(输入大小-卷积核大小+2*P)/步长] +1. 不能整除时,一般去掉小数部分取整,如4.5,则取4 上图中的 output =[(7-3)+2*1]/1 +1 =7 不能整除时,...原创 2018-06-12 15:07:19 · 26520 阅读 · 3 评论 -
ResNet
上图,实曲线为维度相等可直接相加;虚线部分维度不相等,需用tf.pad()函数填充通道数(也即深度),需用池化将图像大小与下层大小相等。 下图分别展示了,18/34/50/101/152层ResNet的各层输出维度大小,大括号内为一个残差模块。 以50Layers为例,层数计算每个残差块为三层, 卷积层1层+池化1层+3*3(conv2_x)+4*3(conv3_x)+6...原创 2018-06-19 11:44:26 · 350 阅读 · 0 评论 -
tensorflow log 日志级别设置
log 日志级别设置import osos.environ["TF_CPP_MIN_LOG_LEVEL"]='1' # 这是默认的显示等级,显示所有信息os.environ["TF_CPP_MIN_LOG_LEVEL"]='2' # 只显示 warning 和 Erroros.environ["TF_CPP_MIN_LOG_LEVEL"]='3' # 只显示 Error ...原创 2018-11-12 12:08:11 · 1171 阅读 · 0 评论 -
tf.app.flags和tf.app.run的使用
tf.app.flags和tf.app.run的使用tf.app.flags主要用于处理命令行参数的解析工作,其实可以理解为一个封装好了的argparse包(argparse是一种结构化的数据存储格式,类似于Json、XML)。 我们通过tf.app.flags来调用这个flags.py文件,这样我们就可以用flags.DEFINE_interger/float()来添加命令行参数,而...原创 2018-11-12 12:07:47 · 321 阅读 · 0 评论 -
cifar-10 图像转为jpg
dir_file目录下需有这几个文件 源代码#coding=utf-8import cv2import numpy as npimport os#文件夹名str_2 = './train_cifar10'str_1 = './test_cifar10'#判断文件夹是否存在,不存在的话创建文件夹if os.path.exists(str_1) == ...原创 2018-06-06 10:46:58 · 2857 阅读 · 0 评论 -
tf.cast
tf.cast(x, dtype, name=None) 将x的类型转换为指定类型import tensorflow as tfimport numpy as npz=np.array([0,1,3,4,6,4,7,1,0])cast = tf.cast(z,tf.float32)with tf.Session()as sess: print(z) print(...原创 2018-06-06 10:47:18 · 112 阅读 · 0 评论 -
tf.reshape()
_image = tf.reshape(x, [-1,28, 28, 1])# -1表示任意数量的样本数,大小为28x28深度为一的张量# 可以忽略(其实是用深度为28的,28x1的张量,来表示28x28深度为1的张量)...转载 2017-10-25 15:07:11 · 6503 阅读 · 0 评论 -
tf.summary.FileWriter
ummary_waiter = tf.summary.FileWriter("log",tf.get_default_graph())log是事件文件所在的目录,这里是工程目录下的log目录。第二个参数是事件文件要记录的图,也就是tensorflow默认的图。...原创 2017-10-25 15:04:22 · 22399 阅读 · 2 评论 -
tensorflow tf.train.batch()
tf.train.batch([example, label],batch_size=batch_size, capacity=capacity) [example, label]表示样本和样本标签,这个可以是一个样本和一个样本标签,batch_size是返回的一个batch样本集的样本个数。capacity是队列中的容量。这主要是按顺序组合成一个batch tf.train....转载 2017-10-25 15:02:48 · 408 阅读 · 0 评论 -
tf.sparse_to_dense()
tf.sparse_to_denseimport tensorflow as tf import numpy as npSIZE=6CLASS=10label=np.random.randint(0,10,size=SIZE) label=np.reshape(label,[SIZE,1])index = np.reshape(np.arange(SIZE), [SIZE...转载 2017-10-25 15:05:54 · 567 阅读 · 0 评论 -
tf.placeholder()
# x 是手写图像的像素值,y是图像对应的标签x = tf.placeholder(tf.float32, [None,784])y = tf.placeholder(tf.float32, [None,10])转载 2017-10-25 15:08:40 · 2666 阅读 · 0 评论 -
tensorflow的优化器Optimizer
种类如下,其中Optimizer是基类 tf.train.Optimizer tf.train.GradientDescentOptimizer tf.train.AdadeltaOptimizer tf.train.AdagradOptimizer tf.train.AdagradDAOptimizer tf.train.MomentumOptimi...原创 2018-06-19 11:31:54 · 447 阅读 · 0 评论 -
tf.equal
tf.equal(A, B)是对比这两个矩阵或者向量的相等的元素,如果是相等的那就返回True,反正返回False,返回的值的矩阵维度和A是一样的import tensorflow as tf import numpy as np A = [[1,3,4,5,6]] B = [[1,3,4,3,2]] with tf.Session() as sess: ...原创 2018-06-19 11:31:48 · 163 阅读 · 0 评论 -
tf.reduce_mean
tf.reduce_mean(input_tensor, axis=None, keep_dims=False, name=None, reduction_indices=None)作用:沿着张量不同的数轴进行计算平均值。 参数:input_tensor: 被计算的张量,确保为数字类型。 axis: 方向数轴,如果没有指明,默认是所有数轴都减...原创 2018-06-19 11:31:42 · 3338 阅读 · 0 评论 -
tf.layers.dense
tf.layers.dense( inputs, units, activation=None, use_bias=True, kernel_initializer=None, bias_initializer=tf.zero...原创 2018-06-19 11:31:35 · 1681 阅读 · 0 评论 -
tf.nn.softmax
通过Softmax回归,将logistic的预测二分类的概率的问题推广到了n分类的概率的问题。通过公式 可以看出当月分类的个数变为2时,Softmax回归又退化为logistic回归问题。 下面的几行代码说明一下用法# -*- coding: utf-8 -*-import tensorflow as tfA = [1.0,2.0,3.0,4.0,5.0,6.0]with...原创 2018-06-06 10:48:34 · 6618 阅读 · 0 评论 -
gpu版tensorflow测试
测试程序:import tensorflow as tfwith tf.Session(config=tf.ConfigProto(allow_soft_placement=True, log_device_placement=False)) as sess: a = tf.constant(1) b = tf.constant(3) c = a + b ...原创 2018-06-06 10:48:18 · 12095 阅读 · 1 评论 -
AlexNet
AlexNet流程如下: 实现细节:#conv1 (Convolution)kernel size:11 stride:4 pad:0 out_layer:96#lrn#relu#pool1(MAX Pooling)kernel size :3 stride:2 pad:0 #conv2 (Convolution)kernel size:5 s...原创 2018-06-06 10:48:05 · 172 阅读 · 0 评论 -
GoogLeNet
GoogLeNet Inception 结构的主要思路是怎样用密集成分来近似最优的局部稀疏结构。对上图做以下说明: 1 . 采用不同大小的卷积核意味着不同大小的感受野,最后拼接意味着不同尺度特征的融合; 2 . 之所以卷积核大小采用1、3和5,主要是为了方便对齐。设定卷积步长stride=1之后,只要分别设定pad=0、1、2,那么卷积之后便可以得到相同维度的特征,然后这些特征就可以直接拼接在一起...原创 2018-06-06 10:47:56 · 431 阅读 · 0 评论 -
LeNet
LeNet-5 ,以用于实现手写识别的7层CNN(不包含输入层)为例,以下为LeNet-5的示意图: Input Layer:1*32*32图像Conv1 Layer:包含6个卷积核,kernal size:5*5,parameters:(5*5+1)*6=156个Subsampling Layer:average pooling,size:2*2 ...原创 2018-06-06 10:47:44 · 602 阅读 · 0 评论 -
mnist数据集图片提取出来
# -*- coding: UTF-8 -*-# 把mnist数据集转成图片做测试,图片更为通用import cv2import osfrom keras.datasets import mnistimport numpy as npstr_1 = 'mnisttrain'str_2 = 'mnisttest'if os.path.exists(str_1): os...原创 2018-06-06 10:47:10 · 3495 阅读 · 4 评论 -
tf.argmax
tf.argmax可以认为就是np.argmax。tensorflow使用numpy实现的这个API简单的说,tf.argmax就是返回最大的那个数值所在的下标。 test = np.array([[1, 2, 3], [2, 3, 4], [5, 4, 3], [8, 7,2]])np.argmax(test, 0) #输出:array([3, 3, 1]np.argm...原创 2018-06-06 10:47:36 · 122 阅读 · 0 评论 -
tensorflow 启动Session(tf.Session(),tf.InteractivesSession(),tf.train.Supervisor().managed_session() )
(1)tf.Session() 计算图构造完成后, 才能启动图. 启动图的第一步是创建一个 Session 对象。示例程序:#coding:utf-8 import tensorflow as tf #构造图 a = tf.constant(4) b = tf.constant(5) c = a+b#启动图 with tf.Sessio...原创 2018-12-04 20:38:25 · 1117 阅读 · 0 评论