自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(383)
  • 收藏
  • 关注

原创 乐优商城介绍

1.乐优商城介绍1.1.项目介绍乐优商城是一个全品类的电商购物网站(B2C)。用户可以在线购买商品、加入购物车、下单、秒杀商品可以品论已购买商品管理员可以在后台管理商品的上下架、促销活动管理员可以监控商品销售状况客服可以在后台处理退款操作希望未来3到5年可以支持千万用户的使用1.2.系统架构1.2.1.架构图乐优商城架构缩略图,大图请参考课前资料:DevOpsngi...

2019-09-08 23:00:17 8276 2

原创 ubuntu14.04 忘记了普通用户密码和root密码

步骤一:必须先找回ROOT,才可以往下做。本文使用的Ubuntu版本为14.04.4,具体过程如下为:1、重启电脑长按shift键直到进入下图进入GRUB引导模式,选择第二行Ubuntu 高级选项, 选中直接回车 ,如下图:2、进入如下画面,看到里面有一些选项,这时千万不要按回车键,按e进入(recovery mode) 编译kernel进行启动参数3、关键的时候到了, 倒...

2019-08-29 23:11:29 10982 2

原创 如何分清分布式、高并发与多线程

当提起这三个词的时候,是不是很多人都认为分布式=高并发=多线程?当面试官问到高并发系统可以采用哪些手段来解决,或者被问到分布式系统如何解决一致性的问题,是不是一脸懵逼?确实,在一开始接触的时候,不少人都会将三者混淆,误以为所谓的分布式高并发的系统就是能同时供海量用户访问,而采用多线程手段不就是可以提供系统的并发能力吗?实际上,他们三个总是相伴而生,但侧重点又有不同。什...

2019-08-13 09:56:42 347

原创 希腊字母发音对照表

序号 大写 小写 英文注音 中文读音 1 Α α alpha 阿尔法 2 Β β beta 贝塔 3 Γ γ gamma ...

2019-07-08 19:17:25 4768

原创 向量

向量有一维的吗?有一维向量。 大家都知道每个实数a都对应了实数轴上的一个点A, 实际上每个实数a都对应了实数轴上的一个向量OA, |a|=向量OA的模。 正数a对应的向量方向就是正实轴, 负数a对应的向量方向就是负实轴。 如果正实轴的单位向量记为i,那么实数a对应的向量就是ai。向量的几何意义是什么?先说1维,数轴上点A表示的数a,从原点起到点A为止的有向线段就可以用1维向量...

2019-07-08 19:16:13 373

原创 0 范数、1 范数、2 范数有什么区别?

是问向量范数还是矩阵范数?要更好的理解范数,就要从函数、几何与矩阵的角度去理解,我尽量讲的通俗一些。我们都知道,函数与几何图形往往是有对应的关系,这个很好想象,特别是在三维以下的空间内,函数是几何图像的数学概括,而几何图像是函数的高度形象化,比如一个函数对应几何空间上若干点组成的图形。但当函数与几何超出三维空间时,就难以获得较好的想象,于是就有了映射的概念,映射表达的就是一个集合通过某...

2019-07-08 19:14:46 1065

原创 判断字符串是否为空

#判断字符串是否为''、space、tab、enter、null,有两种方法:1.if not data or data.isspace():2.if not data.strip() or data.strip()=='':

2019-07-04 09:59:01 304

转载 Tensorflow:AlexNet的实现(CIFAR-10数据集)

一、模型模型向前向后传播时间的计算请参考:Tensorflow深度学习之十:Tensorflow实现经典卷积神经网络AlexNet二、工程结构由于我自己训练的机器内存显存不足,不能一次性读取10000张图片,因此,在这之前我按照图片的类别,将每一张图片都提取了出来,保存成了jpg格式。与此同时,在保存图片的过程中,存储了一个python的dict结构,键为每一张图片的相对地...

2019-06-14 21:00:05 1509

转载 卷积神经网络之经典网络LeNet-5、AlexNet、VGG-16、ResNet

一 实例探索卷积神经网络的基本构建,比如卷积层、池化层以及全连接层这些组件。事实上,过去几年计算机视觉研究中的大量研究都集中在如何把这些基本构件组合起来,形成有效的卷积神经网络。最直观的方式之一就是去看一些案例,就像很多人通过看别人的代码来学习编程一样,通过研究别人构建有效组件的案例是个不错的办法。实际上在计算机视觉任务中表现良好的神经网络框架往往也适用于其它任务,也许你的任务也不例外。也就是...

2019-06-14 20:49:56 2774

转载 用Tensorflow实现经典CNN网络AlexNet

什么是AlexNet?  AlexNet在ILSVRC-2012的比赛中获得top5错误率15.3%的突破(第二名为26.2%),其原理来源于2012年Alex的论文《ImageNet Classification with Deep Convolutional Neural Networks》,这篇论文是深度学习火爆发展的一个里程碑和分水岭,加上硬件技术的发展,深度学习还会继续火下去。...

2019-06-14 18:38:49 436

转载 卷积神经网络之AlexNet网络详解

一 介绍Alex Krizhevsky等人训练了一个大型的卷积神经网络用来把ImageNet LSVRC-2010比赛中120万张高分辨率的图像分为1000个不同的类别。在测试卷上,获得很高准确率(top-1 and top-5 error rates of 37.5%and 17.0% ).。通过改进该网络,在2012年ImageNet LSVRC比赛中夺取了冠军,且准确率远超第二名(to...

2019-06-14 18:01:01 6381 2

转载 lenet-5,Alexnet详解以及tensorflow代码实现

Lenet-5是Yann LeCun提出的,对MNIST数据集的分识别准确度可达99.2%。下面简要介绍下每层的结构:第一层:卷积层该层的输入是原始图像的像素值,以MNIST数据集为例,则是28x28x1,第一层过滤器尺寸为5x5,深度设置为6,不适用0去填充,因此该层的输出尺寸是28-5+1=24,深度也为6.第二层:池化层接受第一层的输出作为输入,过滤器大小选为2x2,步长...

2019-06-14 17:41:02 1387

转载 TensorFlow 入门之基本使用

整体介绍使用 TensorFlow, 你必须明白 TensorFlow:使用图 (graph) 来表示计算任务. 在被称之为 会话 (Session) 的上下文 (context) 中执行图. 使用 tensor 表示数据. 通过 变量 (Variable) 维护状态. 使用 feed 和 fetch 可以为任意的操作(arbitrary operation)赋值或者从其中获取数据...

2019-06-14 17:22:51 158

转载 TENSORFLOW:GRAPH 和 SESSION续

用tf.Session.run去运行opertionstf.Session.run方法是tensorflow里去执行一个opertion或者对tensor求值的主要方式。你可以把一个或者多个opertaion或者tensor传递给session.run去执行。TensorFlow会执行这些operation和所有这个operation依赖的计算去得到结果。session.run需要你指定一...

2019-06-13 13:34:55 259

转载 Tensorflow Get Started

关于Tensorflow的基本介绍Tensorflow是一个基于图的计算系统,其主要应用于机器学习。从Tensorflow名字的字面意思可以拆分成两部分来理解:Tensor+flow。Tensor:中文名可以称为“张量”,其本质就是任意维度的数组。一个向量就是一个1维的Tensor,一个矩阵就是2维的Tensor。 Flow:指的就是图计算中的数据流。当我们想要使用Tensorfl...

2019-06-13 13:34:50 193

转载 tensorflow: tensor,operation和Session

一、基本知识TensorFlow的基本知识是学习的基础,要有一个大致的了解。这个学习的时候遇到很多问题,所以准备一边学习一边整理。这些内容主要来自TensorFlow的中文社区,再加上自己的一些整理。首先要了解TensorFlow的基本概念。tensor可以理解为一种数据,TensorFlow就相当于一个数据的流动过程,所有能用图(graph)来表示的计算任务理论上都能用TensorFlo...

2019-06-13 13:34:40 519

转载 Tensorflow: About Session, Graph, Operation and Tensor

Tensorflow是基于图(Graph)的计算系统。而图的节点则是由操作(Operation)来构成的,而图的各个节点之间则是由张量(Tensor)作为边来连接在一起的。所以Tensorflow的计算过程就是一个Tensor流图。Tensorflow的图则是必须在一个Session中来计算。这篇笔记来大致介绍一下Session、Graph、Operation和Tensor。Session...

2019-06-13 13:34:34 185

转载 tensorflow tensorboard可视化并保存训练结果

一、还是以mnist的例程,来演示tensorboard的可视化1、先上代码:from tensorflow.examples.tutorials.mnist import input_dataimport tensorflow as tfdir = './MNIST_data' # 最好填绝对路径# 1.Import data mnist = input_data.re...

2019-06-13 13:34:29 5424

转载 如何为GradientDescentOptimizer设置自适应学习率?

我正使用TensorFlow来训练一个神经网络。我初始化GradientDescentOptimizer的方式如下:init = tf.initialize_all_variables()sess = tf.Session()sess.run(init)mse = tf.reduce_mean(tf.square(out - out_))train_step = tf...

2019-06-13 13:34:25 1328

转载 在TensorFlow中怎么打印Tensor对象的值

在TensorFlow中,如何打印Tensor对象的值?对于下面这个TensorFlow矩阵乘法的例子:matrix1 = tf.constant([[3., 3.]])matrix2 = tf.constant([[2.],[2.]])product = tf.matmul(matrix1, matrix2)当我打印product时,显示为一个TensorObject。&l...

2019-06-13 13:34:19 17539

转载 如何防止Tensorflow分配整个GPU内存?

我在共享计算资源的环境中工作,也就是说,我们有几台服务器机器都配备了几个Nvidia Titan X GPU。对于小到中等尺寸的模型,Titan X的12GB通常足以让2-3人在同一GPU上同时进行训练。如果模型足够小,以至于单个模型不能充分利用Titan X的所有计算单元,那么实际上可以导致某种加速(相比串行多个训练任务来说)。即使在GPU的并发访问确实减慢了单个训练时间的情况下,同时在GP...

2019-06-13 13:34:14 1639

转载 在TensorFlow中如何将Tensor张量转换为numpy数组?

在Tensorflow中,使用Python,如何将张量(Tensor)转换为numpy数组呢?最佳解决办法由Session.run或eval返回的任何张量都是NumPy数组。>>> print(type(tf.Session().run(tf.constant([1,2,3]))))<class 'numpy.ndarray'>要么:...

2019-06-13 13:34:08 36932 5

原创 tf.Session() vs tf.InteractiveSession()

Mainly taken fromofficialdocumentation:The only difference with a regular Session is that an InteractiveSession installs itself as the default session on construction. The methods Tensor.eval() an...

2019-06-13 13:33:50 236

转载 tensorflow tf.Variable()和tf.get_variable()详解

一、tf.Variable()(1)参数说明tf.Variable是一个Variable类。通过变量维持图graph的状态,以便在sess.run()中执行;可以用Variable类创建一个实例在图中增加变量;Args参数说明:initial_value:Tensor或可转换为Tensor的Python对象,它是Variable的初始值。除非validate_shape设置...

2019-06-12 10:09:06 1684 1

转载 在TensorFlow中,Session.run 和Tensor.eval 有什么区别

TensorFlow有两种方式来评估Graph(计算图)的一部分:对变量列表做Session.run或Tensor.eval。这两者有什么区别?最佳解决思路如果你有一个Tensort,调用t.eval()相当于调用tf.get_default_session().run(t)。可以按如下方式将会话设置为默认会话:t = tf.constant(42.0)sess = t...

2019-06-12 10:09:00 260

转载 TENSORFLOW中基本概念的理解

TensorFlow 里的一些概念并不straightforward。在这里我把自己经过这一段时间学习的一些理解写下来,希望能帮到其他人。TensorFlow是一个机器学习框架,它的程序结构当然也都是为深度学习准备的。我们先来看一下一个机器学习的过程是怎样的:问题用户要解决一个多分类问题。以一个普通神经网络为例,用户有100条样本记录,每个记录里有8个feature,f1-f8。最终要把...

2019-06-12 10:08:53 2888

转载 TENSORFLOW:GRAPH 和 SESSION

Graph 和 SessionTensorFlow用数据流图来表示你的计算中的不同操作的依赖关系。这也导致在使用底层API进行编程的时候,你首先定义一个数据流图,然后创建一个session在一些本地或者远程的设备上运行定义的graph的各个部分。如果你计划使用底层API进行编程,那么这个文档很有用。像Estimator还有Keras隐藏了很多关于graph和session的细节。但是如果你...

2019-06-12 10:08:47 478

转载 TENSORFLOW:VARIABLES

VariablesTensorFlow里的variable是表示你程序操作的持续共享的状态的最好的方式。变量是通过tf.Variable类操作的。一个tf.Variable表示一个tensor的值是可以通过操作来改变的。和tf.Tensor不同,tf.Variable是存在于单次session.run调用的context之外的。在内部,一个tf.Variable存储着一个持久的tens...

2019-06-12 10:08:41 344

转载 TENSORFLOW:TENSORS

TensorsTensorFlow,就像名字所示,是一个关于怎么定义和计算tensors的框架。一个tensor是对向量,矩阵和更高维度的数据的通用表示。实现上,TensorFlow用n维array来表示tensor这个基本数据类型。当你写一个TensorFlow的程序,你操作和传递的主要对象就是tf.Tensor。一个tf.Tensor对象表示了一部分最终可以得到一个值的计算。Tenso...

2019-06-12 10:08:34 589

转载 sess.run()

函数:run(fetches, feed_dict=None, options=None, run_metadata=None)当构建完图后,需要在一个session会话中启动图,第一步是创建一个Session对象。为了取回(Fetch)操作的输出内容, 可以在使用Session对象的run()调用执行图时,传入一些 tensor, 这些 tensor 会帮助你取回结...

2019-06-12 10:08:29 46928 4

转载 TENSORFLOW:底层概念介绍

介绍这个帮助文档让你可以使用TensorFlow的底层API开始编程,让你知道:– 如何管理你自己的TensorFlow程序(用tf.Graph)和一个TensorFlow的runtime(用tf.Session)。这样你就不需要依赖Estimators去帮你管理了。– 利用tf.Session去运行一个TensorFlow的Operations。– 在底层API里使用高层的compon...

2019-06-12 10:08:23 1993

转载 TENSORFLOW:ESTIMATORS

EstimatorsEstimators是TensorFlow的高层API,它大大简化了机器学习的编程。Estimator封装了以下功能:– 模型训练– 模型评价– 模型预测– 模型导出TensorFlow提供了一些Estimator,你也可以开发自己的Estimator,不论是TensorFlow提供的还是你自定义的都是tf.estimator.Estimator的子类。t...

2019-06-12 10:07:47 273

转载 池化层max_pool中两种paddding操作

max_pool()中padding参数有两种模式valid和same模式。Tensorflow的padding和卷积层一样也有padding操作,两种不同的操作输出的结果有区别。函数原型max_pool(value, ksize, strides, padding, data_format="NHWC", name=None)这一解释除了tf.nn.max_pool,还适用于tf.nn...

2019-06-12 10:07:27 3491

转载 tf.nn.conv2d是怎样实现卷积的?

实验环境:tensorflow版本1.2.0,python2.7一、介绍惯例先展示函数:tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)除去name参数用以指定该操作的name,与方法有关的一共五个参数:input:指需要做卷积的输入图像,它要求是一个Ten...

2019-06-11 11:23:21 360

转载 tf.nn.max_pool实现池化操作

max pooling是CNN当中的最大值池化操作,其实用法和卷积很类似,有些地方可以从卷积去参考。tf.nn.max_pool(value, ksize, strides, padding, name=None)参数是四个,和卷积很类似:value:需要池化的输入,一般池化层接在卷积层后面,所以输入通常是feature map,依然是[batch, height, width, ch...

2019-06-11 11:10:12 562

转载 tf.placeholder、feed_dict用法说明

函数形式:tf.placeholder(dtype,shape=None,name=None)参数:dtype:数据类型。常用的是tf.float32,tf.float64等数值类型shape:数据形状。默认是None,就是一维值,也可以是多维(比如[2,3], [None, 3]表示列是3,行不定)name:名称为什么要用placeholde...

2019-06-11 11:04:29 6948 1

转载 计算卷积后尺寸

这里单独把计算卷积之后的维度的公式拿出来,方便查看1.卷积后尺寸计算out_height=(in_height+2pad-filter_height)/strides[1]+1out_width=(in_width+2pad-filter_width)/strides[2] +12.tensorflow中卷积参数same和valid运算之后的维度计算(1)sameou...

2019-06-11 10:39:02 2051

转载 用python将图像转换为三维数组之后,每一维,每个元素值都代表着什么?

对于一张图片来说,人眼看到的是各种颜色的组合,而计算机看到则是一堆范围在0~255之间的像素值,也就是说如果想让计算机处理图像,首先我们应该将图像转换为数字。怎么转换呢?转换完之后每一维,每个元素值都代表什么含义呢?1.图像转换这里用到了一张用PS生成的5x5大小的RGB彩色图像,python,以及scipy.misc库。这是测试的图像:下面是两行简单的代码,可以将图像转换为...

2019-06-11 10:27:12 3076

转载 numpy arange函数

返回值: np.arange()函数返回一个有终点和起点的固定步长的排列,如[1,2,3,4,5],起点是1,终点是5,步长为1。参数个数情况: np.arange()函数分为一个参数,两个参数,三个参数三种情况1)一个参数时,参数值为终点,起点取默认值0,步长取默认值1。2)两个参数时,第一个参数为起点,第二个参数为终点,步长取默认值1。3)三个参数时,第一个参数为起点,第二个参...

2019-06-11 10:18:16 1731

转载 Python中import, from...import,import...as的区别

在python中import或者from…import是用来导入相应的模块。举个例子:import datetimeprint(datetime.datetime.now())以上代码实现输出系统当前时间,是引入整个datetime包,然后再调用datetime这个类中的now()方法。以上代码实现功能也可以用以下代码实现:from datetime import da...

2019-06-11 10:15:55 248

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除