自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

YZXnuaa的博客

很想进步的人

  • 博客(109)
  • 收藏
  • 关注

转载 python文件读写,以后就用with open语句

读写文件是最常见的IO操作。Python内置了读写文件的函数,用法和C是兼容的。读写文件前,我们先必须了解一下,在磁盘上读写文件的功能都是由操作系统提供的,现代操作系统不允许普通的程序直接操作磁盘,所以,读写文件就是请求操作系统打开一个文件对象(通常称为文件描述符),然后,通过操作系统提供的接口从这个文件对象中读取数据(读文件),或者把数据写入这个文件对象(写文件)。读文件要以读文件的模式打开一个...

2018-03-30 20:05:56 2245

原创 tf.train.Saver

1. Saver的背景介绍    我们经常在训练完一个模型之后希望保存训练的结果,这些结果指的是模型的参数,以便下次迭代的训练或者用作测试。Tensorflow针对这一需求提供了Saver类。Saver类提供了向checkpoints文件保存和从checkpoints文件中恢复变量的相关方法。Checkpoints文件是一个二进制文件,它把变量名映射到对应的tensor值 。只要提供一个计数器,当...

2018-03-30 19:58:12 184

转载 tf.train.ExponentialMovingAverage的用法

tf.train.ExponentialMovingAverage(decay, steps)tf.train.ExponentialMovingAverage这个函数用于更新参数,就是采用滑动平均的方法更新参数。这个函数初始化需要提供一个衰减速率(decay),用于控制模型的更新速度。这个函数...

2018-03-30 19:00:55 841

转载 tf.trainable_variables方法

tf.trainable_variables方法import tensorflow as tfv1 = tf.get_variable('v1', shape=[1])v2 = tf.get_variable('v2', shape=[1], trainable=False)with tf.variable_scope('scope1'): s1 = tf.get_variabl...

2018-03-30 19:00:24 6771

转载 【Python】.format()函数

用法:  它通过{}和:来代替传统%方式 1、使用位置参数要点:从以下例子可以看出位置参数不受顺序约束,且可以为{},只要format里有相对应的参数值即可,参数索引从0开,传入位置参数列表可用*列表>>> li = ['hoho',18]>>> 'my name is {} ,age {}'.format('hoho',18)'my name is hoh...

2018-03-30 18:20:12 369

原创 【Python】提取列表内大于阈值提取位置

probs = np.array([[0, 0, 0, 0, 0, 1, 2], [1, 2, 2, 0, 0, 1, 2]])a = np.array(probs >= 1, dtype='bool')c = np.nonzero(a)b = probs[a]print(probs, '\n',a, '\n', c, '\n', b,)结果[[0 0 0 0 0 1 2] [1 2...

2018-03-30 14:48:58 15434

转载 Tensorflow一些常用基本概念与函数(4)

摘要:本系列主要对tf的一些常用概念与方法进行描述。本文主要针对tensorflow的模型训练Training与测试Testing等相关函数进行讲解。为‘Tensorflow一些常用基本概念与函数’系列之四。1、序言本文所讲的内容主要为以下列表中相关函数。函数training()通过梯度下降法为最小化损失函数增加了相关的优化操作,在训练过程中,先实例化一个优化函数,比如 tf.train.Grad...

2018-03-30 00:23:57 495 1

转载 Tensorflow一些常用基本概念与函数(3)

摘要:本系列主要对tf的一些常用概念与方法进行描述。本文主要针对tensorflow的数据IO、图的运行等相关函数进行讲解。为‘Tensorflow一些常用基本概念与函数’系列之三。1、序言本文所讲的内容主要为以下相关函数:操作组操作Data IO (Python functions)TFRecordWrite,rtf_record_iteratorRunning GraphsSession ma...

2018-03-30 00:23:10 175

转载 Tensorflow一些常用基本概念与函数(2)

1、tensorflow的基本运作为了快速的熟悉TensorFlow编程,下面从一段简单的代码开始:import tensorflow as tf #定义‘符号’变量,也称为占位符 a = tf.placeholder("float") b = tf.placeholder("float") y = tf.mul(a, b) #构造一个op节点 sess = tf.Session()...

2018-03-30 00:22:35 335

转载 Tensorflow一些常用基本概念与函数

1、tensorflow的基本运作为了快速的熟悉TensorFlow编程,下面从一段简单的代码开始:import tensorflow as tf #定义‘符号’变量,也称为占位符 a = tf.placeholder("float") b = tf.placeholder("float") y = tf.mul(a, b) #构造一个op节点 sess = tf.Session()...

2018-03-30 00:21:13 266

转载 tf.transpose

tf.transpose(input, [dimension_1, dimenaion_2,..,dimension_n]):这个函数主要适用于交换输入张量的不同维度用的,如果输入张量是二维,就相当是转置。dimension_n是整数,如果张量是三维,就是用0,1,2来表示。这个列表里的每个数对应相应的维度。如果是[2,1,0],就把输入张量的第三维度和第一维度交换。例如:[python] vie...

2018-03-29 20:32:49 172

转载 TensorFlow tf.clip_by_value tf.select 绝对值用法!

1. 基本tf.clip_by_value() 截断,常和对数函数结合使用# 计算交叉熵crose_ent = -tf.reduce_mean(tf.log(y_*tf.clip_by_value(y, 1e-10, 1.)))1234a = tf.reshape(tf.range(6, dtype=tf.float32), [2, 3])tf.clip_by_value(a, 2.5, ...

2018-03-29 19:52:44 1005

转载 【Tensorflow】tf.contrib.slim

可能很多tensorflow的老版本玩家没见过这个东西,slim这个模块是在16年新推出的,其主要目的是来做所谓的“代码瘦身”。但事实上它已经成为我比较喜欢,甚至是比较常用的模块,github上面大部分tensorflow的工程都会涉及到它,不得不说,撇开Keras,TensorLayer,tfLearn这些个高级库不谈,光用tensorflow能不能写出简洁的代码?当然行,有slim就够了!惟一...

2018-03-29 11:37:56 3566 1

转载 【Tensorflow】中tf.maximum,tf.minimum,tf.argmax,tf.argmain

tf.maximum:用法tf.maximum(a,b),返回的是a,b之间的最大值,tf.miniimum:用法tf.miiinimum(a,b),返回的是a,b之间的最小值,tf.argmax:用法tf.argmax(a,dimension),返回的是a中的某个维度最大值的索引,tf.argmain:用法tf.argmin(a,dimension),返回的是a中的某个维度最小值的索引,例如:[...

2018-03-28 20:44:26 1386 1

转载 激活函数 Sigmoid/Tanh/ReLU/Maxout

日常 coding 中,我们会很自然的使用一些激活函数,比如:sigmoid、ReLU等等。不过好像忘了问自己一()件事:为什么需要激活函数?激活函数都有哪些?都长什么样?有哪些优缺点?怎么选用激活函数?本文正是基于这些问题展开的,欢迎批评指正!(此图并没有什么卵用,纯属为了装x …)Why use activation functions?激活函数通常有如下一些性质:非线性: 当激活函数是线性的...

2018-03-28 20:36:42 1851

转载 【Python】argparse

argparse 是 Python 内置的一个用于命令项选项与参数解析的模块,通过在程序中定义好我们需要的参数,argparse 将会从 sys.argv 中解析出这些参数,并自动生成帮助和使用信息。当然,Python 也有第三方的库可用于命令行解析,而且功能也更加强大,比如 docopt,Click。argparse 使用简单示例我们先来看一个简单示例。主要有三个步骤:创建 ArgumentPa...

2018-03-28 20:05:24 661

转载 Python 常用库 源码 网址

Python中到底有哪些库会让程序员爱不释手?以至于一次上瘾,造成永久性伤害(这句话好像在哪里见过),今天我们就来整理一番这样的库,欢迎各位在评论区或者私信我添加或者修改相关库内容。 如果你想学习编程,但是找不到学习路径和资源,欢迎关注专栏:学习编程(本专栏只接受首发文章投稿) GUI 图形界面Tkinter :TkinterwxPython:wxPythonPyGTK:PyGTKPyQt:Py...

2018-03-28 15:27:32 2447

转载 Lipschitz连续

Lipschitz连续。它其实就是在一个连续函数上面额外施加了一个限制,要求存在一个常数使得定义域内的任意两个元素和都满足此时称函数的Lipschitz常数为。简单理解,比如说的定义域是实数集合,那上面的要求就等价于的导函数绝对值不超过。再比如说就不是Lipschitz连续,因为它的导函数没有上界。Lipschitz连续条件限制了一个连续函数的最大局部变动幅度。...

2018-03-28 12:21:57 18612 3

转载 Wasserstein distance WGAN 知乎相关三篇

作者:子元链接:https://www.zhihu.com/question/39872326/answer/83688277来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。用什么距离取决于你关心什么类型的差别。举几个例子。1. Kullback-Leibler divergence对于两个分布和,KL散度定义为。可以看出,如果要小,那么大的地方必须要大(否则会很大)...

2018-03-28 11:26:43 8356 1

转载 MaskRCNN:三大基础结构DeepMask、SharpMask、MultiPathNet

   MaskXRCnn俨然成为一个现阶段最成功的图像检测分割网络,关于MaskXRCnn的介绍,需要从MaskRCNN看起。        当然一个煽情的介绍可见:何恺明团队推出Mask^X R-CNN,将实例分割扩展到3000类。        MaskRCnn取得的精细结果有三个主要技术构架:DeepMask、SharpMask、MultiPathNet。MaskRCNN与普通FNN的典型不...

2018-03-28 10:37:23 3921

转载 ML:自然语言处理NLP面试题

自然语言处理的三个里程碑:http://blog.csdn.net/sddamoke/article/details/1419973两个事实分别为:一、短语结构语法不能有效地描写自然语言。二、短语结构规则的覆盖有限。Chomsky 曾提出过这样的假设,认为对一种自然语言来说,其语法规则的数目是有限的,而据此生成的句子数目是无限的。文中提到的三个里程碑式的进展为:一、复杂特征集。复杂特征集又叫多重属...

2018-03-28 10:33:18 2591

转载 一个方向——进化算法

神经进化正在复兴。主要的人工智能实验室和研究人员正在试验它,一丝新的成功点燃了更多的热情,能对于深度学习产生影响的新机遇正在出现。也许你在深度学习所有的激动人心的时刻并没有听到过神经进化,但它只是潜行于表面之下,作为一个小的热情的研究社区的课题存在了几十年。现在它正伴随着大众对于它的潜力的了解而开始获得更多的关注。简单来说,神经进化是人工智能和机器学习领域的一个分支。它力图触发一个和产生我们人类大...

2018-03-28 10:27:47 6010

转载 DCGAN TensorFlow实现

生成对抗网络因为优雅的创意和优秀的性能吸引了很多研究者与开发者,本文从简洁的案例出发详解解释了 DCGAN,包括生成器的解卷积和判别器的卷积过程。此外,本文还详细说明了 DCGAN 的实现过程,是非常好的实践教程。 热身 假设你附近有个很棒的派对,你真的非常想去。但是,存在一个问题。为了参加聚会...

2018-03-28 10:00:09 4565

转载 交叉熵 相对熵 知乎两篇

作者:Noriko Oshima链接:https://www.zhihu.com/question/41252833/answer/108777563来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。熵的本质是香农信息量()的期望。现有关于样本集的2个概率分布p和q,其中p为真实分布,q非真实分布。按照真实分布p来衡量识别一个样本的所需要的编码长度的期望(即平均编码长度...

2018-03-27 15:49:35 1241

转载 Ubuntu16.04下Pytorch安装(基于conda或pip)

问题描述国内的我们在Ubuntu下用pip或者conda安装软件包都容易龟速最终导致失败,但是嗑盐的我们耽误不起时间,所以我们要找一个最好最快的安装的方式,以下我们介绍基于conda和pip的两种安装方式.安装基于conda安装1. 安装conda命令(Anaconda或者Miniconda)Anaconda包括包管理器和很多常用package,因此如果很多库你都还没有安装,直接安装Anacond...

2018-03-27 14:55:15 4690

转载 50行代码搞定(PyTorch) GAN

2014年,Ian Goodfellow和他在蒙特利尔大学的同事们发表了一篇令人惊叹的论文,正式把生成对抗网络(GANs)介绍给全世界。通过把计算图和博弈论创新性的结合起来,GANs有能力让两个互相对抗的模型通过反向传播共同训练。模型中有两个相互对抗的角色,我们分别称为G和D,简单解释如下:G是一个生成器,它试图通过学习真实数据集R,来创建逼真的假数据;D是鉴别器,从R和G处获得数据并标记差异。G...

2018-03-27 14:27:02 1010

转载 GAN的理解与TensorFlow的实现 谷磊

对应的github:https://github.com/burness/tensorflow-101近年来,基于数据而习得“特征”的深度学习技术受到狂热追捧,而其中GAN模型训练方法更加具有激进意味:它生成数据本身。GAN是“生成对抗网络”(Generative Adversarial Networks)的简称,由2014年还在蒙特利尔读博士的Ian Goodfellow引入深度学习领域。201...

2018-03-27 14:23:39 2475

转载 GAN的公开课的小例子

前言本文会从头介绍生成对抗式网络的一些内容,从生成式模型开始说起,到GAN的基本原理,InfoGAN,AC-GAN的基本科普,如果有任何有错误的地方,请随时喷,我刚开始研究GAN这块的内容,希望和大家一起学习。生成式模型何为生成式模型?在很多machine learning的教程或者公开课上,通常会把machine learning的算法分为两类: 生成式模型、判别式模型;其区别在于: 对于输入x...

2018-03-27 14:21:54 1182 1

转载 Ubuntu 配置pip国内镜像源加速安装

问题描述国内镜像源列表永久置换pip镜像源1. 创建pip.conf文件2. 编辑pip.conf文件3. 测试速度暂时置换镜像源问题描述基于国内网速的问题,我们直接pip安装包通常速度非常慢,而且经常会出现装到一半失败了的问题,既然这样,我们就要充分利用国内镜像的力量,节省时间,明显提高pip安装的效率.以下是我的操作分享,一共分为永久置换和暂时置换两种方法.国内镜像源列表豆瓣(douban) ...

2018-03-27 11:36:46 6671 3

原创 三维空间透视投影至二维平面

其实这篇文章讲的就是类似于MATLAB中的mesh函数的实现原理。想要实现的功能就是已知网格三维坐标,如何将转成在某个视角下的二维坐标。说白了就是如何将三维坐标用电脑呈现出来(因为电脑平面是二维的)。比如下面这些三维坐标点。 具体步骤主要分为三步骤: 1、选定观察点P(默认与x轴37度,与z轴30度,与原点距离(R)足够远)2、通过空间坐标变换,将原来的空间坐标系转换为以观察点为原点,PO为z轴的...

2018-03-26 16:36:13 14892 2

转载 浅谈流形学习

总觉得即使是“浅谈”两个字,还是让这个标题有些过大了,更何况我自己也才刚刚接触这么一个领域。不过懒得想其他标题了,想起来要扯一下这个话题,也是因为和朋友聊起我自己最近在做的方向。Manifold Learning 或者仅仅 Manifold 本身通常就听起来颇有些深奥的感觉,不过如果并不是想要进行严格的理论推导的话,也可以从许多直观的例子得到一些感性的认识,正好我也就借这个机会来简单地谈一下这个话...

2018-03-26 15:54:39 276

原创 由3D成像所想到的

三维模型转换到二维实际上是线性的投影降维,当二维描述一个三维物体时,能从二维物体提取三维物体的投影,实际上在三维物体中能描述物体的全部特征。三维物体的主要特征是基于整体的三个方向,可以用两个特征角度描述投影的方向,实际上最大的难点在于如何建立三维和二维之间的线性转换方程训练完成的模型应该每层模型实际上都有可以利用的实际意义,所以将其中的信息利用到不同的网络实际上是一件有意义的事情。从主要信息中匹配...

2018-03-26 15:29:09 283

转载 人脸识别主要算法原理

主流的人脸识别技术基本上可以归结为三类,即:基于几何特征的方法、基于模板的方法和基于模型的方法。1. 基于几何特征的方法是最早、最传统的方法,通常需要和其他算法结合才能有比较好的效果;2. 基于模板的方法可以分为基于相关匹配的方法、特征脸方法、线性判别分析方法、奇异值分解方法、神经网络方法、动态连接匹配方法等。3. 基于模型的方法则有基于隐马尔柯夫模型,主动形状模型和主动外观模型的方法等。1. 基...

2018-03-26 14:38:17 5309

转载 【Python】PCA LDA t-SNE等

本文转自:http://blog.csdn.net/u012162613/article/details/459208271.流形学习的概念流形学习方法(Manifold Learning),简称流形学习,自2000年在著名的科学杂志《Science》被首次提出以来,已成为信息科学领域的研究热点。在理论和应用上,流形学习方法都具有重要的研究意义。假设数据是均匀采样于一个高维欧氏空间中的低维流形,流...

2018-03-26 10:11:08 670

转载 Hadoop学习笔记:MapReduce框架详解

开始聊mapreduce,mapreduce是hadoop的计算框架,我学hadoop是从hive开始入手,再到hdfs,当我学习hdfs时候,就感觉到hdfs和mapreduce关系的紧密。这个可能是我做技术研究的思路有关,我开始学习某一套技术总是想着这套技术到底能干什么,只有当我真正理解了这套技术解决了什么问题时候,我后续的学习就能逐步的加快,而学习hdfs时候我就发现,要理解hadoop框架...

2018-03-25 09:13:06 225

原创 【Python】点集凸包Numpy实现(补充版)

1. 矢量减法设二维矢量 P=(x1,y1) ,Q=(x2,y2) 则矢量减法定义(对应位相减)为: P−Q=(x1−x2,y1−y2) 显然有性质 P−Q=−(Q−P) 如不加说明,下面所有的点都看作矢量,两点的减法就是矢量相减;def sub(p, q): return p-qp, q = np.array([1, 2]), np.array([3, 5])print(sub(p,...

2018-03-23 19:52:20 3234

转载 【python】数字图像处理:高级形态学处理 阈值分割+闭运算+连通区域标记+删除小区块+分色显示

形态学处理,除了最基本的膨胀、腐蚀、开/闭运算、黑/白帽处理外,还有一些更高级的运用,如凸包,连通区域标记,删除小块区域等。 1、凸包 凸包是指一个凸多边形,这个凸多边形将图片中所有的白色像素点都包含在内。 函数为: skimage.morphology.convex_hull_image(image) 输入为二值图像,输出一个逻辑二值图像。在凸包内的点为True, 否则为False 例: imp...

2018-03-23 19:51:06 6808 1

原创 快速判断某点是在凸多面体的内部

求出每个面的方程f(x,y,z)=0,然后判断P点代入f和多面体其他点代入f如果异号说明不在内部。如果没有每个面的方程的话可以用一个暴力一点的方法,遍历所有顶点中任3点组合确定的平面方程,如果其余点代入的结果同号(包括0,不可能都等于0否则就在一个面上了)但是与P异号(不包括0),那么说明不在内部;如果遍历结束都没有结果说明在内部...

2018-03-23 19:49:40 4738 1

转载 几何学算法

1. 矢量减法设二维矢量 P = (x1,y1) ,Q = (x2,y2)则矢量减法定义为: P - Q = ( x1 - x2 , y1 - y2 )显然有性质 P - Q = - ( Q - P )如不加说明,下面所有的点都看作矢量,两点的减法就是矢量相减;2.矢量叉积设矢量P = (x1,y1) ,Q = (x2,y2)则矢量叉积定义为: P × Q = x1*y2 - x2*y1   得到...

2018-03-23 19:46:52 311

转载 凸包-Graham-Scan算法

(1)问题:给定二维平面点集,求最小的包含所有点的凸多边形。(2)Gramham-Scan算法:Gramham-Scan是一种灵活的凸包算法,其总的时间复杂度仅为O(n*log(n))。步骤:Step1: 选定x坐标最小(相同情况y最小)的点作为极点,这个点必在凸包上;Step2: 将其余点按极角排序,在极角相同的情况下比较与极点的距离,离极点比较近的优先;Step3: 用一个栈S存储凸包上的点,...

2018-03-23 19:44:22 980

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除