深度学习
独自凌寒
这个作者很懒,什么都没留下…
展开
-
本地远程连接服务器上的Jupyter Notebook设置方法
jupyter notebook是一个基于浏览器的python数据分析工具,使用起来非常方便,具有极强的交互方式和富文本的展示效果。jupyter是它的升级版,它的安装也非常方便,一般Anaconda安装包中会自带。安装好以后直接输入jupyter notebook便可以在浏览器中使用。但是它默认只能在本地访问,如果想把它安装在服务器上,然后在本地远程访问,则需要进行如下配置:1. 登陆远程服...原创 2019-11-29 19:17:45 · 2935 阅读 · 0 评论 -
深度学习中Embdeding层俩大作用的个人理解
首先,我们有一个one-hot编码的概念。假设,我们中文,一共只有10个字。。。只是假设啊,那么我们用0-9就可以表示完比如,这十个字就是“我从哪里来,要到何处去”其分别对应“0-9”,如下:我从哪里来要到何处去012345678 9那么,其实我们只用一个列表就能表示所有的对...原创 2019-08-12 10:10:59 · 923 阅读 · 0 评论 -
PyCharm设置仿sublime配色__Py版本2018.1
配色效果图:1. File --- Setting --- Apperance & Behavior --- Theme: Darcula2. File ---Setting---Editor---Color Scheme Font---Scheme---Monokai3. 备份原Monokai方案,会创建新的MonokaiCopy方案,我们在Copy...原创 2019-07-07 12:30:06 · 464 阅读 · 0 评论 -
ubuntu16.04系统简洁版安装tensorflow-gpu
一、安装NVIDA驱动安装驱动大致有两种方法:直接上NVIDA官网找到适合本机显卡型号的驱动,下载安装 利用ubuntu系统本身自带的显卡驱动在这里演示最简单的方法22、在“附加驱动”里,系统会自动搜索N卡驱动,列表里会提供对应你显卡的最新版官方驱动3、最后点“应用更改”,等待安装完毕。4、重启系统即可二、安装Anaconda1、https://ww...原创 2019-07-07 10:55:46 · 221 阅读 · 0 评论 -
卷积神经网络(详细解说题)
经典的多层感知机由一系列全连接层组成,卷积神经网络中除全连接层外,还有卷积层和汇合(pooling)层。(1)卷积层为什么要用卷积层 输入图像通常维数很高,例如:1000×1000大小的彩色图像对应于三百万维特征。因此,继续沿用多层感知机中的全连接会导致庞大的参数量。大参数量需要繁重的计算,而更重要的是,大参数量会有更高的过拟合风险。卷积是局部连接、共享参数版的全连接。这俩个特性使参数...原创 2019-05-27 10:40:50 · 2583 阅读 · 0 评论 -
TFRecords文件的存储与读取讲解及代码实现
TFRecords是TensorFlow中的设计的一种内置的文件格式,它是一种二进制文件,优点有如下几种:统一不同输入文件的框架它是更好的利用内存,更方便复制和移动(TFRecord压缩的二进制文件, protocal buffer序列化)是用于将二进制数据和标签(训练的类别标签)数据存储在同一个文件中一、TFRecords存储在将其他数据存储为TFRecords文件的时候,需要经...原创 2019-05-13 15:53:19 · 949 阅读 · 0 评论 -
TensorFlow学习: 保存TFRecord文件
一.重要APIⅠ tf.python_io.TFRecordWriter类把记录写入到TFRecords文件的类.__init__(path,options=None)作用:创建一个TFRecordWriter对象,这个对象就负责写记录到指定的文件中去了. 参数: path: TFRecords 文件路径 options: (可选) TFRecordOptions对象...原创 2019-05-13 15:43:05 · 298 阅读 · 0 评论 -
tensorflow学习——tfreader格式,队列读取数据tf.train.shuffle_batch()
1、说明tf.train.shuffle_batch()这个函数的功能是:Creates batches by randomly shuffling tensors.但需要注意的是它是一种图运算,要跑在sess.run()里This function adds the following to the current Graph:在运行这个函数时它会在当前图上创建如下的东西:...原创 2019-05-13 15:30:10 · 221 阅读 · 0 评论 -
tf.cast()数据类型转换
tf.cast()函数的作用是执行 tensorflow 中张量数据类型转换,比如读入的图片如果是int8类型的,一般在要在训练前把图像的数据格式转换为float32。cast定义:cast(x, dtype, name=None)第一个参数 x:待转换的数据(张量)第二个参数 dtype: 目标数据类型第三个参数 name: 可选参数,定义操作的名称int32转换为flo...原创 2019-05-10 20:46:30 · 568 阅读 · 0 评论 -
关于tf.GraphKeys.UPDATA_OPS
1、tf.control_dependencies首先我们先介绍tf.control_dependencies,该函数保证其辖域中的操作必须要在该函数所传递的参数中的操作完成后再进行。请看下面一个例子。import tensorflow as tfa_1 = tf.Variable(1)b_1 = tf.Variable(2)update_op = tf.assign(a_1, 10...原创 2019-05-10 19:11:27 · 7221 阅读 · 1 评论 -
tensorflow中batch normalization的用法
网上找了下tensorflow中使用batch normalization的博客,发现写的都不是很好,在此总结下:1.原理公式如下:y=γ(x-μ)/σ+β其中x是输入,y是输出,μ是均值,σ是方差,γ和β是缩放(scale)、偏移(offset)系数。一般来讲,这些参数都是基于channel来做的,比如输入x是一个16*32*32*128(NWHC格式)的feature ma...原创 2019-05-10 16:41:10 · 238 阅读 · 0 评论 -
ResNet :( residual 、residual bottleneck)
1.ResNet结构它使用了一种连接方式叫做“shortcut connection”,顾名思义,shortcut就是“抄近道”的意思,看下图我们就能大致理解:这是文章里面的图,我们可以看到一个“弯弯的弧线“这个就是所谓的”shortcut connection“,也是文中提到identity mapping,这张图也诠释了ResNet的真谛,当然大家可以放心,真正在使用的ResNet...原创 2019-05-10 16:32:56 · 855 阅读 · 0 评论 -
tf.concat()解释
ensorflow中用来拼接张量的函数tf.concat(),用法:tf.concat([tensor1, tensor2, tensor3,...], axis)先给出tf源代码中的解释: t1 = [[1, 2, 3], [4, 5, 6]] t2 = [[7, 8, 9], [10, 11, 12]] tf.concat([t1, t2], 0) # [[1, ...原创 2019-05-10 16:29:52 · 1339 阅读 · 0 评论 -
残差网络
1. 什么是残差(residual)? “残差在数理统计中是指实际观察值与估计值(拟合值)之间的差。”“如果回归模型正确的话, 我们可以将残差看作误差的观测值。” 更准确地,假设我们想要找一个xx,使得f(x)=bf(x)=b,给定一个xx的估计值x0x0,残差(residual)就是b−f(x0)b−f(x0),同时,误差就是x−x0x−x0。 即使xx不知道...原创 2019-05-10 15:32:28 · 2580 阅读 · 1 评论 -
tf.one_hot()用法 独热编码
tf.one_hot()进行独热编码首先肯定需要解释下什么叫做独热编码(one-hot encoding),独热编码一般是在有监督学习中对数据集进行标注时候使用的,指的是在分类问题中,将存在数据类别的那一类用X表示,不存在的用Y表示,这里的X常常是1, Y常常是0。举个例子:比如我们有一个5类分类问题,我们有数据(Xi,Yi),其中类别Yi有五种取值(因为是五类分类问题),所以如果Yj为...原创 2019-05-10 09:06:06 · 669 阅读 · 0 评论 -
验证集与测试集有什么区别?为什么要分训练集、验证集和测试集?
测试集与验证集的存在主要是为了把调参与评估泛化能力分为两个相对独立的步骤,体现了正交化思想。 验证集一般用于进一步确定模型中的超参数(例如正则项系数、神经网络中隐层的节点个数,k值等),而测试集只是用于评估模型的精确度(即泛化能力)。 举个例子:假设建立一个BP神经网络,对于隐含层的节点数目我们并没有很好的方法取确定,此时一般将节点数设为某一具体的值,通过训练出...原创 2019-05-14 16:37:55 · 3119 阅读 · 0 评论