tensorflow
一只tobey
中国,广州,从城中到乡下,再从乡下进城里,保持努力!
展开
-
tf.app.flags Tensorflow传参数, tf.app.run()的使用,FLAGS = tf.app.flags.FLAGS
tf定义了tf.app.flags,用于支持接受命令行传递参数,相当于接受argv。执行main函数之前首先进行flags的解析,也就是说TensorFlow通过设置flags来传递tf.app.run()所需要的参数,我们可以直接在程序运行前初始化flags,也可以在运行程序的时候设置命令行参数来达到传参的目的。对于tensorflow框架(接触的不多)含有if __name__ ...原创 2018-07-28 21:09:51 · 1408 阅读 · 1 评论 -
custom_transforms
其中的正则化和归一化不一样,这里使用的是define normalize(sample): self.mean = (0.,0.,0.) # 可以自己设定正则化的均值和方差 self.std = (1.,1.,1.) img = np.array(sample['image']).astype(np.float32) mask ...原创 2018-09-12 12:49:21 · 847 阅读 · 0 评论 -
Image.open 和scipy.misc.imread打开读取图片,以及torch的类型
tensorflow,numpy的顺序是(batch,h,w,c)pytorch的顺序是(batch,c,h,w)里面的图片打开属性查看,可以知道(h,w)=(375,1242) 高度(h),宽度(w)用Image打开的a是一个PIL类型的,用另外一个打开的b是numpy类型的所以a查看大小:a.size=(1242,375)=(w,h),注意a没有shape属性,另外一...原创 2018-09-12 17:24:20 · 5458 阅读 · 0 评论 -
关于类型为numpy,TensorFlow.tensor,torch.tensor的shape变化以及相互转化
1.numpy类型:numpy.ndarray 对于图片读取之后(H,W,C)或者(batch,H,W,C)(1)在元素总数不变的情况下:numpy类型的可以直接使用方法numpy.reshape任意改变大小,numpy.expand_dims增加维度,大小是1(这个函数可以参考numpy.expand_dims的用法)(2)元素总数可以变化:scipy.misc.imresize(a,...原创 2018-09-12 22:56:50 · 3723 阅读 · 5 评论 -
用tensorflow,pytorch框架使用GPU,指定GPU问题
pytorch:单个GPU指定使用:1.在代码上指定(建议这种指定方式)import osos.environ["CUDA_VISIBLE_DEVICES"] = "2" # 指定第二块gpu2.使用set_device指定import torchtorch.cuda.set_device(0) # 不能设定两个,比如0,2查看pytorch所使用的gpu...原创 2019-03-08 14:40:22 · 1938 阅读 · 0 评论 -
数据处理中ToTensor紧接着Normalize
transform = transforms.Compose([ transforms.ToTensor(), transforms.Normalize(mean=(0.5, 0.5, 0.5), std=(0.5, 0.5, 0.5)) ])ToTensor的作用:另外一个作用就是将数据全部归一化到了(0,1)Convert a ``PIL Image`` or ``num...原创 2019-03-08 16:18:07 · 3321 阅读 · 0 评论 -
转载tensorflow的API文档地址
https://devdocs.io/tensorflow~python/Tensorflow API documentationhttps://www.jianshu.com/p/38491dd330ae转载 2019-03-29 22:55:57 · 1117 阅读 · 0 评论 -
tensorflow gfile文件操作详解
这些函数和python中的os模块非常的相似,对文件(夹)进行操作,一般都可以用os模块代替具体API参考:https://blog.csdn.net/a373595475/article/details/79693430转载 2019-03-29 23:14:13 · 290 阅读 · 0 评论 -
import graph from file,导入已有的图模型,用tensorboard查看图模型
graph_def = tf.GraphDef() # 新建GraphDef文件,用于临时载入模型中的图graph_def.ParseFromString(f.read()) # GraphDef加载模型中的图tf.import_graph_def(graph_def, name='') # 在当前默认图中加载GraphDef中的图函数tf.import...原创 2019-03-31 20:31:57 · 1907 阅读 · 2 评论 -
卷积相关问题
普通卷积问题:1.每次做卷积图像会缩小,可能最后1x1大小,可能不想在每次卷积或者识别其他特征时图像都缩小2.在角落或者边缘区域的像素点在输出中采用很少,意味着丢掉了图像边缘位置的许多信息解决:在运用卷积操作之前,先填充图像;这就是valid和same的卷积,valid模式不填充,same模式填充。也就是加入padding。卷积核一般都是奇数的原因:如果核是一个偶数,那么只...原创 2019-04-06 13:40:19 · 1083 阅读 · 0 评论 -
Prepare the data
1. _load_gt_file函数:从train3.txt或者val3.txt里面读取原图片和标签图片的地址,再用scipy.misc.imread(image_dir,mode='RGB')将图片读取出来并且以矩阵的形式存储。Take the data_file and hypes and create a generator. The generator outputs the imag...原创 2018-09-04 16:36:40 · 367 阅读 · 0 评论 -
saver = tf.train.Saver() 模型参数的保存与恢复
参考模型的保存与恢复SAVER里面讲解了saver = tf.train.Saver(max_to_keep=5)saver.save(sess,'filepath,global_step=step)tf.train.latest_checkpoint(checkpoint_dir, latest_filename=None)saver.restore(sess, save_p...原创 2018-08-18 12:41:54 · 2671 阅读 · 1 评论 -
Tensorflow的CNN卷积(2)
(1) tf.nn.atrous_conv2d, (2)tf.nn.softmax, (3)tf.nn.log_softmax, (4)tf.nn.softmax_cross_entropy_with_logits (5) tf.nn.sparse_softmax_cross_entropy_with_logits, (6) tf.nn.sigmoid_cross_entropy_with_l...原创 2018-08-13 17:34:17 · 1081 阅读 · 0 评论 -
tf.matmul()矩阵乘法和 tf.multiply()点乘
tf.matmul(a, b, transpose_a=False, transpose_b=False, adjoint_a=False, adjoint_b=False, a_is_sparse=False, b_is_sparse=False, name=None)Multiplies matrix a by matrix b, producing a * b.参数说明:a和b两个矩...原创 2018-08-01 19:17:51 · 8767 阅读 · 0 评论 -
Tensor的分割与合并,维度的阐述 red, green, blue = tf.split(rgb, 3, 3)
tf.split(split_dim, num_split, value, name='split')Splits value along dimension split_dim into num_split smaller tensors. Requires that num_split evenly divide value.shape[split_dim].参数:split_d...原创 2018-08-03 19:50:57 · 5685 阅读 · 0 评论 -
tf打印调试信息的方法 Debugging operation tf.Print
tf.Print(input_, data, message=None, first_n=None, summarize=None, name=None)Prints a list of tensors. This is an identity op with the side effect of printing data when evaluating.Args: inpu...原创 2018-08-04 10:24:16 · 711 阅读 · 0 评论 -
Tensorflow的CNN卷积(1)
(1) tf.nn .conv2d, (2)tf.nn.max_pool, (3)tf.nn.droupout, (4)tf.nn.bias_add, tf.add, tf.add_n, (5)tf.placeholder,(6)tf.nn.conv2d_transpose, (7)tf.nn.moments and tf.nn.batch_normalization1.卷积tf.n...原创 2018-08-04 17:07:03 · 421 阅读 · 0 评论 -
tensorflow的loss损失函数tf.nn.l2_loss
Loss损失运算 用于测量两个张量之间或张量与0之间的误差。 这些可以用于测量回归任务中的网络的精确度,或用于正则化的目的(权重衰减)。 L2正则化(regularization)loss0表示原始的损失函数,后面的部分为L2正则化,通过加入一个正则项来防止过拟合(data overfitting) ...原创 2018-08-04 17:20:00 · 14824 阅读 · 0 评论 -
tf.add_to_collection(name,value)
add_to_collection(name,value)Stores value in the collection with the given name.Note that collections are not sets, so it is possible to add a value to a collection several times.Args:name: The k...原创 2018-08-04 17:46:52 · 296 阅读 · 0 评论 -
tf.get_variable() 权值共享
权值共享常使用的情况,一些需要共享的变量,比如神经网络里面的权重,word embedding这种变量,这样就会选择使用共享变量。而比如global_step这种仅仅用来追踪训练步数的变量,它并不是trainable的,那么直接用tf.Variable()方法。tf.get_variable()tf.get_variable( name, #name是一个必填参数,与之前见...原创 2018-08-04 19:39:51 · 4930 阅读 · 0 评论 -
tf.reduce_xx这类函数
tf.reduce_max( ),tf.reduce_min( ),tf.reduce_mean( ),tf.reduce_sum( ),tf.reduce_prod( ),tf.reduce_prod( ),tf.reduce_any( ),tf.reduce_all( )tf.reduce_mean(input_tensor,axis=None,keep_dims=False,name=N...转载 2018-08-09 19:35:26 · 233 阅读 · 0 评论 -
tf.reshape(tensor, shape, name=None)改变tensor的形状
tf.reshape(tensor, shape, name=None)Given `tensor`, this operation returns a tensor that has the same values as `tensor` with shape `shape`.Args: tensor: A `Tensor`. shape: A `Tensor`. Must b...原创 2018-08-09 22:30:25 · 4032 阅读 · 0 评论 -
激活函数记录
tf.nn.softplus():输入是features log(exp(features) + 1)tf.nn.softsign():输入是features features / (abs(features) + 1)tf.nn.relu(): max(features, 0)tf.nn.relu6(): min(max(features, 0),6)tf.nn.sof...原创 2019-07-04 18:30:28 · 146 阅读 · 0 评论