自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Meiko记录

本博记录自己的过往积累和学习记录,所有内容并不是教科书式的解释,只是结合 我自己的情况来编写,若有不妥,请多见谅

  • 博客(28)
  • 收藏
  • 关注

原创 对称加密,非对称加密,SSH

熟悉Linux的人肯定都知道SSH。SSH是一种用于安全访问远程服务器的网络协议。它将客户端与服务端之间的消息通过加密保护起来,这样就无法被窃取或篡改了。那么它安全性是如何实现的呢?为了理解SSH,先要介绍两个重要概念:对称加密和非对称加密。对称加密:在对称加密中,客户端和服务端使用同一个密钥对数据进行加密和解密。这种方法的好处是加密强度高,很难破解。缺点也很明显,即密钥本身容...

2019-03-27 11:38:46 624

原创 tf.name_scope()和tf.variable_scope()

tf.name_scope()和tf.variable_scope()是两个作用域,一般与两个创建/调用变量的函数tf.variable() 和tf.get_variable()搭配使用。tf.name_scope和variable_scope也是个作为上下文管理器的角色,下文管理器:意思就是,在这个管理器下做的事情,会被这个管理器管着。一.name_scope 和 variable_s...

2019-03-21 17:42:46 138

原创 反卷积

直接以一个简单例子描述反卷积过程。假设输入如下:[[1,0,1], [0,2,1], [1,1,0]]反卷积卷积核如下:[[ 1, 0, 1], [-1, 1, 0], [ 0,-1, 0]]现在通过stride=2来进行反卷积,使得尺寸由原来的3*3变为6*6.那么在Tensorflow框架中,反卷积的过程如下(不同框架在裁剪这步可能不一样):反卷积...

2019-03-19 17:06:34 707 1

转载 python装饰器

详解Python的装饰器Python中的装饰器是你进入Python大门的一道坎,不管你跨不跨过去它都在那里。为什么需要装饰器我们假设你的程序实现了say_hello()和say_goodbye()两个函数。def say_hello(): print "hello!" def say_goodbye(): print "hello!" # bug he...

2019-03-14 14:18:16 112

转载 dock er catch机制

docker build 简介众所周知,一个 Dockerfile 唯一的定义了一个 Docker 镜像。如此依赖,Docker 必须提供一种方式,将 Dockerfile 转换为 Docker 镜像,采用的方式就是docker build 命令。以如下的 Dockerfile 为例: FROM ubuntu:14.04 RUN apt-get update ...

2019-03-14 11:42:18 269

原创 tf.nn.dropout

tf.nn.dropout函数首先看官方函数定义:def dropout(x, keep_prob, noise_shape=None, seed=None, name=None)输入是:x,你自己的训练、测试数据等 keep_prob,dropout概率 ……,其它参数不咋用,不介绍了输出是:A Tensor of the same shape of x然后我们看...

2019-03-13 16:04:45 1640

原创 卷积神经网络,卷积和池化

卷积神经网络是一种多层神经网络,擅长处理图像特别是大图像的相关机器学习问题。卷积网络通过一系列方法,成功将数据量庞大的图像识别问题不断降维,最终使其能够被训练。CNN最早由Yann LeCun提出并应用在手写字体识别上(MINST)。LeCun提出的网络称为LeNet,其网络结构如下:这是一个最典型的卷积网络,由卷积层、池化层、全连接层组成。其中卷积层与池化层配合,组成多个卷积组,逐层...

2019-03-13 11:15:10 4319

原创 tensorflow滑动平均模型

ExponentialMovingAverage()对每一个变量会维护一个影子变量shadow variable 这个影子变量的初始值就是相应变量的初始值,而每次运行变量跟新的时候影子变量就会跟新为:shadow_variable=decay*shadow_variable+(1-decay)*variableshadow_variable是影子变量,decay是衰减率,variable为...

2019-03-11 18:11:28 261

转载 形象解释激活函数的作用

首先我们有这个需求,就是二分类问题,如我要将下面的三角形和圆形点进行正确的分类,如下图:利用我们单层的感知机, 用它可以划出一条线, 把平面分割开:上图直线是由得到,那么该感知器实现预测的功能步骤如下,就是我已经训练好了一个感知器模型,后面对于要预测的样本点,带入模型中,如果,那么就说明是直线的右侧,也就是正类(我们这里是三角形),如果,那么就说明是直线的左侧,也就是负类(我...

2019-03-11 10:22:55 233

原创 tf.data

注意,在TensorFlow 1.3中,Dataset API是放在contrib包中的:tf.contrib.data.Dataset而在TensorFlow 1.4中,Dataset API已经从contrib包中移除,变成了核心API的一员:tf.data.Dataset此前,在TensorFlow中读取数据一般有两种方法:使用placeholder读内...

2019-03-08 16:29:52 576

原创 tensorflow随机数生成函数,常数生成函数

1,tf.random_normaltf.random_normal(shape,mean=0.0,stddev=1.0,dtype=tf.float32,seed=None,name=None)random_normal: 正态分布随机数,均值mean,标准差stddevrandom_normal2,tf.truncated_normaltf.truncated_no...

2019-03-07 17:25:39 1029

转载 reshape(-1),tf.add_to_collection,tf.get_collection

1、要记住,python默认是按行取元素-1是模糊控制的意思 比如人reshape(-1,2)固定2列 多少行不知道结果:2、出错情况>>> a = np.array([[1,2,3], [4,5,6]])>>> np.reshape(a, (3,-1)) # the unspecified value is inferred t...

2019-03-07 15:46:01 217

转载 计算图,tensor,session

从TensorFlow这个名字中,我们可以发现,tensor(张量),flow(流),在TensorFlow中两个最重要的概念,一个TensorFlow程序主要是由计算图、张量以及模型回话三个部分组成。一、计算图一个使用TensorFlow编写的程序主要分为两个部分,一个是构建计算图部分,一个是执行计算图。下面,我来构建一个非常简单的计算图。 import tenso...

2019-03-06 16:54:54 179

转载 tf.Variable与tf.get_variable,tf.variable_scope,tf.name_scope

1. tf.Variable与tf.get_variabletensorflow提供了通过变量名称来创建或者获取一个变量的机制。通过这个机制,在不同的函数中可以直接通过变量的名字来使用变量,而不需要将变量通过参数的形式到处传递。TensorFlow中通过变量名获取变量的机制主要是通过tf.get_variable和tf.variable_scope实现的。当然,变量也可以通过tf.Va...

2019-03-06 16:41:29 100

原创 矩阵的秩

矩阵的秩矩阵Am×n的秩定义为该矩阵中线性无关的行数和列数。秩的性质:秩是一个正整数。秩等于或小于矩阵的行数和列数。当n×n矩阵A的秩等于n时,则称A是非奇异矩阵,或称A满秩。若rank(Am×n)<min{m,n},则称A是秩亏缺的。若rank(Am×n)=m(<n),则称矩阵A具有满行秩。若rank(Am×n)=n(<m),则称矩阵A具有满列秩。...

2019-03-06 15:16:14 7392

原创 tf.tile,tf.gather,t f.concat,t f .expand_dims,tf.add_n, tf.stack,tf.sparse_to_dense

temp = tf.range(0,10)*10 + tf.constant(1,shape=[10])temp2 = tf.gather(temp,[1,5,9])with tf.Session() as sess: print (sess.run(temp)) print (sess.run(temp2))输出结果[ 1 11 21 31 41 51 61 ...

2019-03-06 14:36:44 358

原创 tf.segment_sum和tf.unsorted_segment_sum

c = tf.constant([[1,2,3,4], [-1,-2,-3,-4], [5,6,7,8]])result = tf.segment_sum(c, tf.constant([0, 0, 1]))#第二个参数长度必须为3result_ = tf.segment_sum(c, tf.constant([0, 1, 1]))result__ = tf.segment_sum(c, ...

2019-03-06 11:22:38 597

转载 tensorflow dataset.shuffle dataset.batch dataset.repeat

batch很好理解,就是batch size。注意在一个epoch中最后一个batch大小可能小于等于batch sizedataset.repeat就是俗称epoch,但在tf中与dataset.shuffle的使用顺序可能会导致个epoch的混合dataset.shuffle就是说维持一个buffer size 大小的 shuffle buffer,图中所需的每个样本从shuffle ...

2019-03-05 11:32:00 482

原创 tf.random_uniform, tf.data.Dataset.from_tensor_slices,tf.data.Dataset.range

tf.random_uniform((4, 4), minval=low,maxval=high,dtype=tf.float32)))返回4*4的矩阵,产生于low和high之间,产生的值是均匀分布的。例如:import tensorflow as tfimport numpy as npwith tf.Session() as sess: print(sess.run(...

2019-03-05 10:56:52 227

原创 n p.random

返回值: np.arange()函数返回一个有终点和起点的固定步长的排列,如[1,2,3,4,5],起点是1,终点是5,步长为1。参数个数情况: np.arange()函数分为一个参数,两个参数,三个参数三种情况1)一个参数时,参数值为终点,起点取默认值0,步长取默认值1。2)两个参数时,第一个参数为起点,第二个参数为终点,步长取默认值1。3)三个参数时,第...

2019-03-05 10:23:02 202

原创 t f.constant 和t f.variable

在TensorFlow API中创建常量的函数原型如下所示:tf.constant( value, dtype=None, shape=None, name='Const', verify_shape=False)可以看到第一个值value是必须的,可以是一个数值,也可以是一个列表。如果是数值:tensor=tf.constant(1)为查...

2019-03-04 17:50:00 403

原创 ,tf.convert_to_tensor,tf.one_hot,tf.reduce_mean

这是个很有用的函数,我们经常需要将python的数据类型转换成TensorFlow可用的tensor数据类型,所以仔细研究一下这个函数还是很有必要的。参考官方说明文档format:convert_to_tensor(value, dtype=None, name=None, preferred_dtype=None)Args:value: An object whose...

2019-03-04 17:19:00 285

原创 tf.GraphKeys和变量初始化

GraphKeystf.GraphKeys包含所有graph collection中的标准集合名,有点像Python里的build-in fuction。首先要了解graph collection是什么。graph collection在官方教程——图和会话中,介绍什么是tf.Graph是这么说的:tf.Graph包含两类相关信息:图结构。图的节点和边缘,指明了各个指令组...

2019-03-04 17:06:59 2927

原创 t f.train.batch

tf.train.batch( tensors, batch_size, num_threads=1, capacity=32, enqueue_many=False, shapes=None, dynamic_pad=False, allow_smaller_final_batch=False, shared_name=No...

2019-03-04 16:33:57 149

转载 tf.train.string_input_producer()和tf.train.slice_input_producer()import tensorflow as tf path_list=['

Tensorflow一共提供了3种读取数据的方法:供给数据(Feeding): 在TensorFlow程序运行的每一步, 让Python代码来供给数据,比如说用PIL和numpy处理数据然后喂入神经网络。从文件读取数据: 在TensorFlow图的起始, 让一个输入管线从文件中读取数据,这就是这篇文将要讲的内容。预加载数据: 在TensorFlow图中定义常量或变量来保存所有数据...

2019-03-04 16:19:54 403

原创 tensor

TensorFlow简介:官网上对TensorFlow的介绍是,一个使用数据流图(data flow graphs)技术来进行数值计算的开源软件库。数据流图中的节点,代表数值运算;节点节点之间的边,代表多维数据(tensors)之间的某种联系。我们可以在多种设备(含有CPU或GPU)上通过简单的API调用来使用该系统的功能。TensorFlow包含构建数据流图与计算数据流图等基本步骤,图中...

2019-03-04 15:22:13 239

转载 tensorflow中协调器 tf.train.Coordinator 和入队线程启动器 tf.train.start_queue_runners

# -*- coding:utf-8 -*-import tensorflow as tfimport numpy as np# 样本个数sample_num = 5# 设置迭代次数epoch_num = 2# 设置一个批次中包含样本个数batch_size = 3# 计算每一轮epoch中含有的batch个数batch_total = int(sample_num / b...

2019-03-04 14:09:08 205

原创 tfrecord文件

在学习TensorFlow的过程中,有很多小伙伴反映读取数据这一块很难理解。确实这一块官方的教程比较简略,网上也找不到什么合适的学习材料。今天这篇文章就以图片的形式,用最简单的语言,为大家详细解释一下TensorFlow的数据读取机制,文章的最后还会给出实战代码以供参考。TensorFlow读取机制图解首先需要思考的一个问题是,什么是数据读取?以图像数据为例,读取数据的过程可以用下图来表示...

2019-03-04 10:37:25 1082

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除