Tensorflow/Pytorch
Tensorflow/Pytorch
Locutus
一切源于对计算机的热爱
展开
-
当TensorFlow遇见CNTK
http://www.jsyangzhu.com/keji/11723256.html转载 2017-01-22 08:21:51 · 384 阅读 · 0 评论 -
Tensorflow学习笔记(四):常规模型保存与加载
1. TensorFlow中的模型首先,我们先来理解一下TensorFlow里面的持久化模型是什么。从tensorflow 0.11版本(含)起,我们持久化保存训练模型后,在模型保存目录中一般会出现下面四个文件:.meta文件:保存了网络(模型)的计算图,包括所有的变量(variables)、操作(operations)、集合(collections)等信息.data-00000-...原创 2019-03-11 12:29:41 · 721 阅读 · 0 评论 -
导入tensorflow出现ImportError:libstdc++.so.6: version `CXXABI_1.3.11'
https://blog.csdn.net/cskywit/article/details/83416837转载 2019-01-29 18:52:32 · 1196 阅读 · 0 评论 -
分布式TensorFlow多主机多GPU原理与实现
TF的部署分为单机部署和分布式部署。在训练集数据量很大的情况下,单机跑深度学习程序过于耗时,所以需要分布式并行计算。在分布式部署中,我们需要在不同主机节点,实现client,master,worker。1. Single-Device Execution1.1 单机多GPU训练构建好图后,使用拓扑算法来决定执行哪一个节点,即对每个节点使用一个计数,值表示所依赖的未完成的节点数目...转载 2018-07-08 01:04:40 · 10610 阅读 · 1 评论 -
TensorFlow学习笔记(一):基础元素
如果你想使用TensorFlow,你需要了解它的基本元素和运行方式:使用图(graph ) 表示计算任务在被称之为会话 (Session) 的上下文 (context) 中,运行图(graph)使用张量(tensor)表示数据通过变量(Variable)维护状态使用注入(feed)为任意操作(arbitrary operation) 赋值,使用取回(fetch)从任意操作中获取数据Ten原创 2017-08-28 16:09:51 · 1294 阅读 · 0 评论 -
TensorFlow学习笔记(三):会话(session)
在TensorFlow中,有两种用于运行graph的简单session: tf.Session( )tf.InteractivesSession( )1. tf.Session( )要使用tf,我们必须先构建(定义)graph,之后才能运行graph。1.1 非交互式会话中的例子import tensorflow as tf# 构建grapha = tf.add(3, 5) # 运行gra原创 2017-08-28 13:04:19 · 4012 阅读 · 0 评论 -
Tensorflow学习笔记(二):常量(tf.constant)与变量(tf.Varialbe)
1. 生成tensor的一些方法生成constant(常量)tf.zeros(shape, dtype=tf.float32, name=None)tf.zeros_like(tensor, dtype=None, name=None)tf.ones(shape, dtype=tf.float32, name=None)tf.ones_like(tensor, dtype=None, name=原创 2017-08-11 22:06:08 · 44408 阅读 · 4 评论 -
tensorflow运维(3):tensorflow1.0的一个bug:can't open CUDA library libcupti.so.8.0
1. 问题在使用tensorflow时,出现以下报错:2017-08-24 08:57:37.175475: tensorflow/stream_executor/dso_loader.cc:129Could not open CUDA library libcupti.so.8.0. LD_LIBRARY_PATH: :/usr/local/cuda/lib64:/usr/local/cuda原创 2017-08-24 09:21:11 · 620 阅读 · 0 评论 -
tensorflow运维(2):tensorboard:No scalar data was found,没有发现常量数据
一样的原因与解决方法原创 2017-08-24 23:10:23 · 2631 阅读 · 0 评论 -
tensorflow运维(1):tensorboard:No graph definition files were found,没有找到graph定义文件
1. 问题今天,在定义完graph中的算子,并执行图计算后,我需要tensorboard可视化节点。于是在命令行键入# tensorboard --logdir=./graph --port=7701在浏览器中输入http://localhost:7701/#graphs,提示“No graph definition files were found”。 2. 解决方法原因:选项“–logdir”原创 2017-08-07 00:07:15 · 3923 阅读 · 2 评论 -
tensorflow_api_6:常用函数的速查表
tf一些常用的函数转载 2017-08-17 00:52:31 · 852 阅读 · 0 评论 -
tensorflow_api_5:tf.reduce_mean()这类函数
在tensor的某一维度上,有一类求值的函数,如tf.reduce_max( ),tf.reduce_mean( ),tf.reduce_sum( )tf.reduce_mean( )函数作用: 沿着tensor的某一维度,计算元素的平均值。由于输出tensor的维度比原tensor的低,这类操作也叫降维。参数: reduce_mean(input_tensor,axis=None,keep原创 2017-08-17 00:50:15 · 6695 阅读 · 0 评论 -
tensorflow_api_4:tf.equal( )
tf.equal( )函数作用: 逐元素比较两个tensor x, y,返回x == y的真值参数: tf.equal(x, y, name=None) x: 一个tensor. 必须是以下类型:half, float32, float64, uint8, int8, int16, int32, int64, complex64, quint8, qint8, qint32, stri原创 2017-08-16 16:29:48 · 1443 阅读 · 0 评论 -
tensorflow_api_3:tf.placeholder( )
tf.placeholder( )函数作用: 为一个总是赋值的tensor,插入一个占位符placeholder。通过操作符号变量placeholder,我们描述可交互的操作单元。placeholder不是一个特定的值,而是一个占位符,我们必须先用字典feed_dict = {key_1: value_1, key_2: value_2, 。。。}向占位符placeholder传值,才能用Ses原创 2017-08-16 16:03:33 · 1054 阅读 · 0 评论 -
tensorflow_api_2:tf.argmax( )
tf.argmax( )函数作用: 按行或列,计算矩阵最大值的索引参数: tf.argmax(input, axis = None, name = None, dimension = None) input:输入tensor axis:0表示按列,1表示按行 name:自定义输出tensor的名称 dimension:和axis功能一样,默认axis取值优先。返回: 行或列最大值原创 2017-08-16 13:49:06 · 518 阅读 · 0 评论 -
tensorflow_api_1:tf.cast( )
tf.cast( )cast直译,类似于映射,指映射到你制定的一个类型函数作用: 对输入tensor进行类型转换语法: tf.cast(x, dtype, name = None), 将x的数据类型转化成dtype。返回: 1个tensor例子: x原来的数据类型是int,现在要把其转化成bool。import tensorflow as tf a = tf.Variable([原创 2017-08-16 13:19:50 · 2709 阅读 · 0 评论 -
Resource exhausted: OOM when allocating tensor with shape[2304,384] Traceback (most recent call last
问题我用tensorflow训练深度学习模型时,出现以下错误:# python train.py --logdir myLog --batch_size 256 --dropout_rate 0.5OP_REQUIRES failed at conv_ops.cc:636 : Resource exhausted: OOM when allocating tensor with shap...原创 2019-03-21 00:51:13 · 4730 阅读 · 1 评论