![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
tensorflow
贾世林jiashilin
alanjia163@163.com 贾世林jiashilin 计算机 软件工程 AI bigdata
展开
-
GPU服务器tensorflow
折腾的要崩溃了,,,,,,,,,,,,,,,后面总结https://blog.csdn.net/qq_43118318/article/details/87911525https://www.cnblogs.com/cookielbsc/p/9780682.htmlhttps://blog.csdn.net/qq_37902216/article/details/89637040...原创 2019-05-26 11:20:37 · 294 阅读 · 0 评论 -
diased_conv
双击下面句子(链接):冠状动脉粥样硬化性心脏病是冠状动脉血管发生动脉粥样硬化病变而引起血管腔狭窄或阻塞,造成心肌缺血、缺氧或坏死而导致的心脏病,常常被称为“冠心病”。但是冠心病的范围可能更广泛,还包括炎症、栓塞等导致管腔狭窄或闭塞。世界卫生组织将冠心病分为5大类:无症状心肌缺血(隐匿性冠心病)、心绞”...原创 2019-09-05 11:06:00 · 210 阅读 · 0 评论 -
tensorflow交叉熵损失函数
目录1.四个交叉熵函数2.具体tensorflow中实现2.1.softmax_cross_entropy_with_logits2.2.sigmoid_cross_entropy_with_logits2.3. sparse_softmax_cross_entropy_with_logits2.4. weighted_cross_entropy_with_lo...原创 2019-05-06 21:02:54 · 5372 阅读 · 0 评论 -
可视化tensorboard
# !/usr/bin/env python# -*- coding:utf-8 -*- # Author: Jia ShiLin# 终端执行下面操作,并去浏览器查看,一个坑就是,目录必须用双引号,单引号不行!!!!# tensorboard --logdir="./data/summary/"import tensorflow as tfa = tf.constant([1...原创 2019-03-27 16:42:30 · 67 阅读 · 0 评论 -
.set_shape()和.reshape()静态形状和动态形状设定
相关博文:https://blog.csdn.net/sangreallilith/article/details/80285229#!/usr/bin/env python# -*- coding:utf-8 -*- # Author: Jia ShiLinimport tensorflow as tf#静态形状和动态形状#对于静态形状来说,一旦张量的形状固定了,不能再次改...原创 2019-03-28 10:59:13 · 1081 阅读 · 0 评论 -
Tensorflow——BatchNormalization(tf.nn.moments及tf.nn.batch_normalization)
批标准化批标准化(batch normalization,BN)一般用在激活函数之前,使结果各个维度均值为0,方差为1。通过规范化让激活函数分布在线性区间,让每一层的输入有一个稳定的分布会有利于网络的训练。 优点: 加大探索步长,加快收敛速度。 更容易跳出局部极小。 破坏原来的数据分布,一定程度上防止过拟合。 解决收敛速度慢和梯度爆炸。方法一:tensor...原创 2019-05-03 23:43:36 · 802 阅读 · 0 评论 -
tensorflow中的卷积和池化操作,总结.tf.nn.conv2d 和tf.nn.max_pool
卷积和池化首先介绍一下Tensorflow当中的卷积和池化操作。.卷积操作如下tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)#添加一个卷积层如下,conv1 = tf.layers.conv2d( # shape (28, 28, 1) input...原创 2019-03-31 20:28:32 · 830 阅读 · 0 评论 -
tensorflow常用变量的定义_运算API.py
#!/usr/bin/env python# -*- coding:utf-8 -*- # Author: Jia ShiLinimport tensorflow as tfimport numpy as npzero = tf.zeros([2, 3], tf.float32)print(zero)sess = tf.Session()zero.eval(session=ses...原创 2019-03-26 00:58:37 · 403 阅读 · 0 评论 -
tf.one_hot()
'''one_hot( indices, depth, on_value=None, off_value=None, axis=None, dtype=None, name=None)#注意: indices代表的事下标 ,从0开始,所以如果是1 的话,one_hot后为[0,1,0,0,0],#on_value=1表示不...原创 2019-04-04 11:08:56 · 99 阅读 · 0 评论 -
Session.run()方法以及placeholder 和feed_dict关键字
#!/usr/bin/env python# -*- coding:utf-8 -*- # Author: Jia ShiLinimport tensorflow as tf#type 重载a =5.0b = tf.constant(5.0)sum1 = a+b#def placheholder,两行三列,feed_dict一般和run一起用plt = tf.plac...原创 2019-03-26 01:00:37 · 1645 阅读 · 0 评论 -
分布式tensorflow原理,单任务和多任务
引子:tf.train.Server.create_local_server()函数创建一个集群,一般来说不同的任务在不用的机器上, 例外是使用GPU时候,不同的任务可以使用同一台机器上的不同GPU跑单任务例子:#!/usr/bin/env python# -*- coding:utf-8 -*- # Author: Jia ShiLinimport tensorflow...原创 2019-06-21 23:43:08 · 497 阅读 · 0 评论 -
tf.argmax()用法
直观理解:tf.argmax(vector, 1):返回的是vector中的最大值的索引号,如果vector是一个向量,那就返回一个值, 如果是一个矩阵,那就返回一个向量,这个向量的每一个维度都是相对应矩阵行的最大值元素的import tensorflow as tfimport numpy as npA = [[1,3,4,5,6]]B = [[1,3,4], [2,4...原创 2019-04-11 20:48:07 · 2343 阅读 · 2 评论 -
tensoflow中最大池化,及参数,
TensorFlow 最大池化由 Aphex34 (自己的作品)CC BY-SA 4.0, 通过 Wikimedia Commons 共享这是一个最大池化的例子max pooling用了 2x2 的滤波器 stride 为 2。四个 2x2 的颜色代表滤波器移动每个步长所产出的最大值。例如[[1, 0], [4, 6]]生成6,因为6是这4个数字中最大的。同理...原创 2019-09-03 14:42:37 · 1671 阅读 · 0 评论 -
tf.summary.scalar()和tf.summary.histogram
用法:1、tf.summary.scalar用来显示标量信息,其格式为: tf.summary.scalar(tags, values, collections=None, name=None)例如:tf.summary.scalar('mean', mean)一般在画loss,accuary时会用到这个函数。2、tf.summar...原创 2019-04-22 11:15:48 · 5460 阅读 · 0 评论 -
tf.train.Saver() 模型保存和加载
1.文件说明1. TensorFlow通过tf.train.Saver类实现神经网络模型的保存和提取。tf.train.Saver对象saver的save方法将TensorFlow模型保存到指定路径中,saver.save(sess,"Model/model.ckpt"),生成4个文件:a) .meta文件,Meta graph: 这是一个协议缓冲区,它保存了完整的Tens...原创 2019-04-28 22:13:05 · 8309 阅读 · 0 评论 -
tf.global_variables_initializer()与tf.local_variables_initializer()的区别
https://blog.csdn.net/sinat_29957455/article/details/83118952转载 2019-03-30 22:17:14 · 438 阅读 · 0 评论 -
tf.reduce_mean
1. tf.reduce_mean 函数用于计算张量tensor沿着指定的数轴(tensor的某一维度)上的的平均值,主要用作降维或者计算tensor(图像)的平均值。reduce_mean(input_tensor, axis=None, keep_dims=False, name=None,...原创 2019-04-30 18:03:44 · 109 阅读 · 0 评论 -
tf.stack() tf.unstack() tf.concat() tf.split()
目录拼接操作: (tf.concat,tf.stack)分割操作: (tf.unstack,tf.split)对比总结:a = tf.constant([[1,2,3],[3,4,5]]) # shape (2,3)b = tf.constant([[7,8,9],[10,11,12]]) # shape (2,3)拼接操作: (tf.concat,tf.stac...原创 2019-04-27 21:05:48 · 547 阅读 · 0 评论 -
tf.metrics.accuracy(),用法
格式:accuracy, update_op = tf.metrics.accuracy(labels=x, predictions=y)tf.metrics.accuracy返回两个值,accuracy为到上一个batch为止的准确度,update_op为更新本批次后的准确度。#官方文档def accuracy(labels, ...原创 2019-04-12 19:40:42 · 12648 阅读 · 6 评论 -
Skeleton-Based Human Action Recognition With Global Context-Aware Attention LSTM Networks翻译
IEEE TRANSACTIONS ON IMAGE PROCESSING, VOL. 27, NO. 4, APRIL 2018基于LSTM网络全局上下文注意力机制和人的基本骨架实现动作识别摘要三维骨架序列中的人体动作识别(action recognition)已经引起了很多研究人员的注意。近期,长短期记忆网络(LSTM)由于其在依赖关系方面和...原创 2019-03-26 00:59:33 · 3425 阅读 · 3 评论 -
简述 TensorFlow 计算图
TensorFlowTensorFlow 的名字中己经说明了它最重要的两个概念一一Tensor 和Flow 。 Tensor 就是张量。如果说TensorFlow 的第一个词Tensor 表明了它的数据结构,那么Flow 则体现了它的计算模型。TensorFlow 中的 Flow 表示张量之间通过计算流相互转换的过程。TensorFlow 的每一个计算都是图上的一个节点,节点之间的边描述了...原创 2019-10-12 23:11:44 · 846 阅读 · 0 评论 -
tf.transpose()
使用transpose()函数时,需要给出matrix和perm两个参数,matrix是待变换的张量,perm是张量变换方式的具体参数。tf.transpose( matrix, perm=None )实现的操作是将matrix进行转置,并且根据perm参数重新排列输出维度。这是对数据的维度的进行操作的形式。说明输出数据tensor的第i维将根据per...原创 2019-04-27 20:05:25 · 149 阅读 · 0 评论 -
tensorflow中文件读取过程
如图,分为4步骤1.首先会开启子线程构建一个文件队列,讲需要读取的文件加入到队列中,2.读取队列内容, 2-1根据文件类型不同,使用不同的API来读取,主要有csv文件,图片文件,二进制文件3.对读取的文件解码4.批处理主线程会取样板数据进行训练...原创 2019-03-30 09:58:40 · 366 阅读 · 0 评论 -
TensorFlow载入数据集
from tensorflow.examples.tutorials.mnist import input_data# mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)# 读入数据# mnist = input_data.read_data_sets('MNIST_dat',one_hot=T...原创 2019-03-20 11:22:47 · 639 阅读 · 0 评论