tensorflow
文章平均质量分 72
爱抠脚的coder
这个作者很懒,什么都没留下…
展开
-
tensorflow的安装教程
我的ubuntu系统是14.04,我之前的博客里面介绍了怎么安装ananconda2和anaconda3 https://blog.csdn.net/m0_37393514/article/details/79545067这里我们基于anaconda2来安装tensorflow,cpu版本安装教程如下:step1:查看python的版本,因为我安装的时候环境变量没有配置完全,所以每次都需要expo...原创 2018-03-23 16:58:55 · 2262 阅读 · 0 评论 -
tf.boolean_mask()
在写深度学习吴恩达老师的编程题遇到了这个函数,记录一下:下面是翻译的官网的教程,函数原型:tf.boolean_mask(tensor,mask,name='boolean_mask',axis=None)跟numpy里面的tensor[mask]具有相同的功能。参数:tensor是N维度的tensor,mask是K维度的,注意K小于等于N,name可选项也就是这个操作的名字,axis...翻译 2018-08-15 16:21:18 · 18240 阅读 · 0 评论 -
K.gather()
keras后端Backend,在进行深度学习的代码的书写的时候,我碰到了这个函数,K.gather(),查看了keras的中文文档找到了这个函数的原型,下面简要说明:函数原型:gather(reference,indices)在给定的张量中搜索给定下标的向量。参数:reference表示被搜寻的向量;indices表示整数张量,要查询的元素的下标。返回值:一个与参数refe...原创 2018-08-17 13:27:57 · 7545 阅读 · 1 评论 -
tf.image.non_max_suppression()
在吴恩达老师深度学习yolo算法实现自动驾驶的编程题中出现了这个函数,这个函数的功能是在检测算法中我们的一个目标被检测了多次,如何排除掉多余的边界框。比如下面的图,来自于编程题中的图片,下面的这个车被多次检测到,存在多个边界框,保留概率最大的那个,去除掉与这个概率最大的边界框的IoU大于一个阙值的其余边界框。这个过程就成为非最大值抑制=NMS函数原型:tf.image.non_max_...翻译 2018-08-17 15:34:51 · 19224 阅读 · 12 评论 -
tf.clip_by_value()
函数原型: tf.clip_by_value( t, clip_value_min, clip_value_max, name=None)将一个张量的值限制在给定的最小值和最大值之间。对于给定的张量t,返回的张量与之有着相同的类型和相同的大小,只是它的值在clip_value_min和clip_value_max之间。任何比clip_value_mi...翻译 2018-08-30 19:21:47 · 1939 阅读 · 0 评论 -
tf.shape()和x.get_shape().as_list()
(1) tf.shape()先说tf.shape()很显然这个是获取张量的大小的,用法无需多说,直接上例子吧!import tensorflow as tfimport numpy as npa_array=np.array([[1,2,3],[4,5,6]])b_list=[[1,2,3],[3,4,5]]c_tensor=tf.constant([[1,2,3],[4,5...原创 2018-08-30 20:11:52 · 42518 阅读 · 9 评论 -
tf.nn.pool()
在网上找了很久关于这个函数的解释,都没有找到相关的解释:看了一下官网也没有怎么搞懂,到底是怎么求解的。自己写了几个最简单的例子,算是解释吧!一、函数原型函数的原型:tf.nn.pool( input, window_shape, pooling_type, padding, dilation_rate=None, strides=N...原创 2018-08-31 10:47:14 · 2855 阅读 · 0 评论 -
tf.transpose()
一 函数原型tf.transpose( a, perm=None, name='transpose', conjugate=False)a:表示的是需要变换的张量perm:a的新的维度序列name:操作的名字,可选的conjugate:可选的,设置成True,那么就等于tf.conj(tf.transpose(input)),用的太少啦,这里不...原创 2018-08-31 19:29:27 · 11408 阅读 · 1 评论 -
tf.reverse(),在图像处理中的应用
一 函数原型tf.reverse( tensor, axis, name=None)参数:tensor:需要进行反转的张量,类型必须为其中的一个uint8, int8, uint16, int16, int32, int64, bool, bfloat16, half, float32, float64, complex64, complex128, stri...原创 2018-08-31 19:45:14 · 4599 阅读 · 0 评论 -
tf.nn.top_k()
一、函数原型tf.nn.top_k( input, k=1, sorted=True, name=None)为了找到输入的张量的最后的一个维度的最大的k个值和它的下标!如果输入的是一个向量,也就是rank=1,找到最大的k个数在这个向量,则输出最大的k个数字和最大的这k个数字的下标。如果输入的张量是一个更高rank的矩阵,那么我们只要找到每一行的最大的...原创 2018-09-04 11:07:23 · 13252 阅读 · 1 评论 -
tensorflow的GPU使用--Python
在看别人的代码的时候出现了下面两行代码,不知道是什么意思,看了https://www.cnblogs.com/helloyy/p/7878201.html的博客我知道了是什么意思!代码如下:import osdef selectGpuById(id): os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID" os.environ[...原创 2018-08-29 20:34:23 · 9604 阅读 · 1 评论 -
tf.reduce_mean()
一、函数原型tf.reduce_mean( input_tensor, axis=None, keepdims=None, name=None, reduction_indices=None, keep_dims=None)参数:input_tensor:需要计算平均值的张量axis:需要计算平均值的轴,如果为None,所有的维度都...原创 2018-09-03 20:07:49 · 3444 阅读 · 0 评论 -
tensorflow关于学习率的更新函数
经常你会看到在代码中出现随着迭代步数的增加学习速率降低的步骤,这是因为越到收敛点学习速率越快的话可能会导致越过收敛点,导致发散的情况。下面我将介绍两种学习速率的降低函数:一、tf.train.exponential_decay()函数原型:tf.train.exponential_decay( learning_rate, global_step, deca...翻译 2018-09-07 11:05:08 · 2320 阅读 · 0 评论 -
tf.nn.softmax_cross_entropy_with_logits,sparse_softmax_....
一、tf.nn.softmax_cross_entropy_with_logits在深度学习的编程题,里面我们碰到了关于tf.nn.sigmoid_cross_entropy_with_logits,下面我们将翻译官网给其提供的介绍,并举例说明!函数原型:tf.nn.softmax_cross_entropy_with_logits(_sentinel=None,labels=None,l...翻译 2018-08-04 13:22:56 · 855 阅读 · 0 评论 -
tf.nn.sigmoid_cross_entropy_with_logits()
在深度学习的编程题里面经常出现的一个函数.下面的文字是大致翻译于tensorflow官网对其的介绍:函数原型:tf.nn.sigmoid_cross_entropy_with_logits(_sentinel=None,,labels=None,logits=None,name=None)对于给定的logits计算sigmoid的交叉熵。衡量的是分类任务中的概率误差,他也是试用于每...翻译 2018-08-03 20:59:34 · 42794 阅读 · 13 评论 -
tf.one_hot()
最近在做吴恩达老师提供的深度学习的代码,其中遇到了这个函数tf.one_hot(),所以在tensorflow的官网找到了关于这个函数的介绍,下面是对其说明的大致翻译:函数的原型:tf.onehot(indices,depth,on_value=None,off_value=None,axis=None,dtype=None,name=None)函数返回的是一个one-hot的张量。这个张...翻译 2018-08-03 20:11:58 · 3365 阅读 · 0 评论 -
Tensorflow high level API-keras
一.引入tf.keras代码:import tensorflow as tffrom tensorflow import keras你可以查看其版本,这个我就不展示了。当你保存模型的权重的时候,tf.keras默认保存为检查点形式,所以你需要“ save_format='h5' "来使用HDF5。二.建造简单的模型2.1 sequential 模型最简单的模型是...原创 2018-07-24 09:53:41 · 1838 阅读 · 0 评论 -
2.利用TensorFlow进行电影评论的正负判断(文本分类)
这次是利用TensorFlow进行文本分类,判断电影评价是正面还是负面的.IMDB数据集包含5万个评论,其中2.5万作为训练集,2.5万作为测试集.训练集和数据集相当意味着正负样本数一样.一.下载IMDB数据集IMDB数据集经过处理,将单词序列转成数字序列,每一个数字在字典中代表中一个特定的单词.下载的代码如下,下载在文件夹/root/.keras/datasets下面,文件名是imdb....原创 2018-07-13 08:38:17 · 2215 阅读 · 2 评论 -
3.利用Tensorflow进行回归问题的处理
之前的两个tensorflow的案例都是分类问题,现在我们来讲回归问题,之前的分类问题都是返回离散值,回归问题返回的是连续值.一.下载波士顿房价的数据集代码如下:import tensorflow as tffrom tensorflow import kerasimport numpy as npboston_housing=keras.datasets.boston_h...原创 2018-07-19 11:26:59 · 7043 阅读 · 0 评论 -
1.利用TensorFlow进行Fashion MNIST数据集的基本分类问题
玩了那么多天,终于有时间来写博客了.之前看过很多TensorFlow官网的教程,全忘了.现在复习,就从头开始吧,加油!原创 2018-07-13 08:26:55 · 19972 阅读 · 12 评论 -
4.解决过拟合和欠拟合的问题
一.下载IMDB数据集在之前第二个介绍tensorflow的博客里面关于文本分类的时候,也是使用的IMDB数据集,但是需要注意的是那时候我们将每一个样本的单词数目扩充到256的长度,而不是采用下面的方法,下面我们将每一个样本都转化成10000维度的向量,比如样本[3,5]只有下标3和5的地方向量的元素值为1,其他情况下都是为0.实现这个步骤的代码封装在函数multi_hot_sequences...原创 2018-07-23 15:50:05 · 1318 阅读 · 0 评论 -
5.模型的保存和恢复
这里我们使用TensorFlow的关于MNIST的数据集的前1000张图片来进行模型的训练和测试.一.准备1.1 得到数据集下载数据集的代码:且我们只取得前面1000个样本.并且都除以255进行归一化处理.from __future__ import absolute_import,division,print_functionimport osimport tensorf...原创 2018-07-20 11:11:46 · 1235 阅读 · 1 评论 -
tensorflow high level API---import data
一、基本机制其实就是tf.data接口可以更好的处理大规模的数据和各种数据类型,还有处理复杂的转换。(1)tf.data.Datasets代表了一个元素的序列,着每一个元素包含了一个或者多个张量实体。有两种创建数据集的方法:第一种(创造一个源)是通过Dataset.from_tensor_slices来构建一个数据集从一个or多个张量实体;第二种是应用一种转换,例如Dataset.batc...原创 2018-07-25 21:18:43 · 444 阅读 · 0 评论 -
解决无法在jupyter notebook里面引入tensorflow
环境:我在Ubuntu系统下安装的anaconda3,然后并在里面使用env安装的tensorflow,之前安装的jupyter notebook并不是在我的tensorflow环境下安装的,所以你无法引入tensorflow。这是我在安装之前的展示的jupyter的结果:很显然,我的jupyter是anaconda自带的,并不是tensorflow下面的jupyter,所以需要重新的安装...原创 2018-08-03 16:55:11 · 30835 阅读 · 3 评论