- 博客(66)
- 收藏
- 关注
原创 社招面试总结
经过4个月的投递,面试。。。,自己第二份工作基本确定,在这4个月里,自己收获颇多,不仅仅是工作上,更是自己的心得体会和对工作学习的态度,趁着自己对面试过程还有些记忆,写一下总结,以让以后的自己自勉。面试前准备面试之前自己主要准备了三个内容:简历,项目和算法知识。下面我一一介绍自己的准备情况。简历简历是新工作的敲门砖,只有你的简历足够优秀,吸引人,才能有面试的机会,能够进一步表现自己。所以对于自己简历的充分准备是成功的第一步。基本信息,教育经历,工作经历,这些不用说,要保证信息的准确性,.
2020-10-14 17:41:49 530 1
原创 Tensorflow之底层操作
1、张量值TF的核心数据单位是张量,张量由一组形成阵列的原始数据组成,张量的阶是它的维数,而它的维数是一哥整数元组,指定了阵列的每个维度的长度:2、TF的低级API可以由两部分独立组成 (1) 构建计算图(tf.Graph) (2) 运算计算图(tf.Session) (1) Graph 计算图是排列成一个图的一系列TF指令,图由两种类型的对象组成 指令:图...
2018-05-19 22:26:50 2067
转载 Tensorflow的placeholder占位符
placeholer是Tnesorflow的占位符节点,由placeholder方法创建,也是一种常量。由用户在调用run的防擦时才传递,可以看理解为一种形参。在使用时需要用户用字典传递常数值。创建X= tf.placeholder(dtype=tf.float32,shape = [144,100],name = 'X')参数:dtype:数据类型shape:数据形状,选填,不填则随传入数据形状...
2018-05-16 09:48:31 921
转载 Tensorflow运作之变量
引自:http://wiki.jikexueyuan.com/project/tensorflow-zh/how_tos/variables.html 在训练模型时,需要使用变量来存储和更新参数。 变量包含张量(Tensor)存放于内存的缓存区。 建模时它们需要明确地初始化,模型训练后它们必须被存储到磁盘。 这些变量的值可在之后的模型训练和分析时被加载。 1、创建 创建变量需要将一个张量
2017-12-12 16:48:05 388
转载 TensorFlow之基本结构
TensorFlow:使用图(graph)来表示计算任务。在被称之为会话(Session)的上下文(context)中执行图。使用tensor表示数据使用变量(Variable)维护状态使用feed和fetch可以为任意的操作(arbitrary operation)赋值或者从其中获得数据。 综述TensorFlow是一个编程系统,使用图来表示计算任务。图中的节点被称之为op(opera
2017-12-09 20:34:08 940
转载 双线性插值
双线性插值就是在x轴和y轴两个方向上进行插入操作。假设A、B两个点,要在AB中间插入一个点C(C坐标在AB连线上),就直接让C的值落在AB的连线上即可。 例如A点坐标(0, 0),值为3,B点坐标(0,2),值为5,要对坐标(0,1)的点C进行插值,就让C落在AB上,值就为4。 如果C点不在AB线上,如图所示 已知Q12,Q22,Q11,Q21,但是要插值的点为P点,这就要双线性插值了,首
2017-11-29 10:42:47 601
转载 ROI Pooling
ROI Pooling 是pooling层的一种,ROI(Region of interest).ROI是指矩形框,往往经过rpn后,输出的不止一个矩形框,所以需要对多个ROI进行pooling。 输入:1、data: 指的是进入RPN层之前的那个Conv层的Feature Map,通常我们称之为”share_conv“ 2、rois: 指的是RPN层的输出,一堆矩形框,形状为1*1*5*1(4
2017-11-29 10:17:44 1102
转载 Caffe系列之命令行解析
caffe运行提供三种接口:C++接口,python接口和matlab接口caffe的C++主程序(caffe.cpp)放在根目录下的tools文件夹内,当然还有一些其他功能文件,如: convert_imageset.cpp, train_net.cpp, test_net.cpp等也放在这个文件夹内。经过编译后,这些文件都编译成了可执行文件,放在了./build/tools/文件夹内。因此我们
2017-11-25 16:32:10 328
转载 caffe系列之:Blob,Layer and Net以及对应配置文件的编写
深度网络是一个组合模型,它由许多相互连接的层组合而成的,它按照一定的策略,一层一层的搭建出自己的模型。它将所有的信息数据定义为blobs,从而进行便利的操作和通讯。Blob是caffe的一种标准的数组,一种统一的内存接口,它详细描述了信息是如何存储的、以及如何在层之间的通讯的。 1、blob Blobs封装了运行时的数据信息,提供了CPU和GPU的同步。从数学上来说,Blob是一个N维数组。它是
2017-11-24 23:20:19 280
转载 Caffe系列之常用层
softmax_loss层,Inner_Product层,accuracy层,reshape层和dropout层及其他参数配置。1、softmax-loss softmax-loss层和softmax层计算大致相同,softmax是一个分类器,计算的是类别概率,是Logistic Regression的一种推广。 softmax与softmax-loss的区别: softmax计算公式:
2017-11-24 22:40:52 251
转载 caffe系列之激活函数
1、Sigmoidlayer{ name: "encod1act" bottom: "encode1" top: "encode1neuron" type: "Sigmoid"}2、ReLU/Retified-Linear and Leaky-ReLU 可选参数:negative_slope:默认为0。对标准的ReLU函数进行变化,如果设置了这个值,那么数据为负数
2017-11-24 11:47:56 449
转载 caffe系列之视觉层
视觉层包括Convolution,Pooling, Local Response Normalization(LRN) ,im2col等 Convolution层和Pooling层大家都已经很熟悉,我们重点关注后面两个。 1、Local Response Normalization(LRN)层 此层是对一个输入层的局部区域进行归一化,达到”侧抑制“的效果。可以去搜索AlexNet或GoogLe
2017-11-24 11:20:16 310
转载 caffe系列之数据层及参数
1、数据层是模型的最底层,是模型的入口,不仅提供数据输入,也提供数据从Blobs转换成别的格式进行保存输出,通常的数据预处理(去均值,放大缩小,裁剪和镜像等)也在这一层实现。 2、数据来源可以是高效的数据库(levelDB和LMDB),也可以来自内存,甚至可以是磁盘的HDF5 文件或图片格式文件。layer{ name: "cifar" type: "Data" top:
2017-11-23 23:07:26 905
转载 caffe的caffe.proto
caffe源码中的caffe.proto在…\src\caffe\proto目录下,在这个文件夹下还有一个.pb.cc和一个.pb.c文件,这两个文件都是由caffe.proto编译出来的。 在caffe.proto中定义了很多结构化数据,包括:BlobProtoDatumFillerParameterNetParameterSolverParamterSolverStateLaye
2017-11-19 22:52:45 393
转载 大数处理问题
http://blog.csdn.net/v_july_v/article/details/7382693: 原理讲解 http://blog.csdn.net/v_JULY_v/article/details/6403777: 程序实现 原则:大而化小,分而治之(hash映射) 解决方法: 1、分而治之/hash映射+hash统计+堆/快速排序/归并排序 2、双层桶划分 3、Bloo
2017-11-15 17:22:17 442
转载 Xception_深度可分卷积
转载自:http://blog.csdn.net/wangli0519/article/details/73004985 卷积神经网络中Inception模块是在在普通卷积和深度可分卷积操作之间一种中间状态。基于此,深度可分卷积可理解为最大数量tower的INception模块。根据Inception,提出一种新的的深度卷积神经网络结构,用深度可分卷积替代Inception模块。昵称为Xcepti
2017-11-13 19:44:28 891
转载 C++_STL之string用法
1、string之substrstring substr (size_t pos = 0, size_t len = npos) const;产生子串 返回一个新建的初始化为string对象的子串拷贝string对象 从pos开始,跨越len个字符(包括字符串的结尾)。 pos第一个字符的位置被复制为子串。如果这是等于字符串的长度,该函数返回一个空字符串。如果这是大于字符串的长度,它会抛出
2017-09-06 16:21:41 242
转载 python_变量前加*或者**
当函数要接受元组或者字典参数时,它分别使用和*前缀。在变量前加*,则多余的函数参数会作为一个元组存在args中,如:def func(*ages):func(1,2,3) #args表示(1,2,3)这个元组如果使用**前缀,多余的参数会被认为是字典def func(**args):func(a='1',b='2',c ='3')#args表示{‘a’:'1','b':'2','c':'3'}
2017-09-04 22:24:01 18424
原创 GAN—生成对抗网络
原理: 假设我们有两个网络:一个生G(Generator),一个判别D(Discriminator)。G是一个生成图片的的网络,它接受一个随机的噪声z,通过这个噪声生成图片,记做G(z)。D是一个判别网络,判断一张图片是不是“真实的”。它的输入参数是x,x代表一张图片的。输出D(x)代表x为真实图片的概率,如果为1,就代表100%是真实的图片,输出为0,就代表不可能是真实的图片。“对抗”的由来:
2017-09-01 20:31:55 3312
转载 数字的排序算法—计数排序、桶排序和基数排序
计数排序 当输入元素是n个0到k之间的整数时,他的运行时间是O(n+k),计数排序不是比较排序,它快于任何比较算法。用来计数的数组C的长度取决于排序数组的数据范围,如果数据范围很大,需要大量的数组。但是计数排序可以在基数排序的的算法范围来排序数据范围很大的数组。 步骤: 1、找到数据最小元素和最大元素 2、统计数组中每个值为i的元素出现的个数,存入计数数组第i项 3、对所有的计数累加 4
2017-08-29 22:18:05 1686
转载 caffe之Protocol Buffers学习
转载自http://blog.csdn.net/langb2014/article/category/5998589/5 1概述 Protocol Buffers是在以后纵轻便高效的结构化数据存储格式,可用于结构化数据串行化,或者说序列化。它很适合做数据存储或者说数据交换格式。提供了多种语言的API,如C++,java,python等。 2 BP作用 BP提供了一种灵活/高效的,自动化序列的
2017-08-15 23:17:03 378
原创 ResNet_残差网络
打开深度之门——残差网络产生残差网络的原因:虽然网络越越复杂能够完成的任务越多。深效果越好。但达到一定层数后,accuracy就会下降,这种问题称为degradation,该问题不同于梯度消失/梯度爆炸。梯度消失/梯度爆炸从一开始就阻碍网络收敛,我们通过标准初始化或者中间层归一化已经能够解决。 当深度增加时,准确率达到饱和然后迅速下降,并且这种误差和过拟合无关,在增加层数时也使训练错误率下降厉害,
2017-07-14 23:17:52 1665
原创 DL语义分割总结
目前看过的论文有FCN,U-net,还有几个经典网络没有看,看论文速度有待提高,赶紧还债,下面是我对几个语义分割网络的简单理解,后期会补充。另,建议关注一个类似知乎的国外精英网站:Qure) 参考来源 :A 2017 Guide to Semantic Segmentation with Deep Learning 在FCN网络在2104年提出后,越来越多的关于图像分割的深度学习网络被提
2017-07-07 22:43:31 12647
转载 使用pycaffe定义网络
1、引入库import caffefrom caffe import layers as Lfrom caffe import params as P2、使用pycaffe定义Netn = caffe.NetSpec()3、定义Datalayern.data,n.label = L.Data(batch_size=batch_size,backend = P.data.LMDB,source=l
2017-06-15 17:30:13 532
原创 C++静态成员
在C++中,静态成员是属于整个类而不是对象,静态成员变量只存储一份供所有对象共用。所以在对象中都可以共享它。使用静态成员变量可以实现多个对象之间数据共享不会破坏隐藏的原则,保证来安全性还可以节省内存。静态成员的定义或声明要加关键字static,使用时可以以这种形式:<类名>::<静态成员名> 静态成员是属于整个类而不是某个对象。
2017-06-11 11:14:06 268
原创 C++之继承关系
C++继承:公有,私有,保护 继承方式限定了基类成员在派生类中的访问权限,包括 public(公有的)、private(私有的)和 protected(受保护的)。此项是可选项,如果不写,默认为 private(成员变量和成员函数默认也是 private)。共有继承 : 基类的public 和protected成员在派生类中保持不变,private 不可见。 保护继承: 基类的public
2017-06-11 10:48:54 273
转载 keras——常用层
常用层对应于core模块,core内部定义了来一系列常用网络层,包括全连接,激活层等。 Dense层keras.layers.core.Dense(units, activation=None, use_bias=True, kernel_initializer='glorot_uniform', bias_initializer='zeros', kernel_regularizer=None,
2017-06-10 22:43:30 2694
转载 keras——函数式模型
keras——函数式模型Keras函数式模型接口是用户定义多输出模型、非循环有向模型或具有共享层的模型等复杂模型的途径。一句话,只要你的模型不是类似VGG一样一条路走到黑的模型,或者你的模型需要多于一个的输出,那么你总应该选择函数式模型。函数式模型是最广泛的一类模型,序贯模型(Sequential)只是它的一种特殊情况。第一个模型:全连接网络Sequential当然是
2017-06-07 18:20:24 4956 1
转载 python图像处理——图像形变与缩放
图像的形变与缩放,使用的是skimage的transform模块,函数比较多,功能齐全。 1、改变图片尺寸 函数格式为: skimage.transform.resize(image,output_shape) image:需要改变尺寸的图片 output_shape:新的图片尺寸from skimage import transform,dataimpo
2017-06-06 15:31:20 9047
转载 python数字图像处理:批处理
有时候需要对一批图片处理。这时候可以调用程序自带的图片集合来处理。 skimage.io.ImageCollection(load_pattern,load_func=None)这个函数是在io模块内,带两个参数,第一个必啊哈四图片数组路径,可以时候一个str字符串。第二个参数是load_func是一个回调函数,我们对图片进行批处理可回调这个函数实现。回调函数默认为imread()即默认这个函数是
2017-06-06 12:38:52 2985 1
转载 python图像处理——图像绘制
前面我们已经用到啦图像绘制, io.imshow(img) 这行代码实质是利用matplot包对图片进行绘制,绘制成功后,返回一个matplotlib类型数据。 imshow()格式为 matplotlib.pyplot.imshow(X, cmap=None) X:要绘制的图像或者数组 cmap:颜色图谱,默认绘制为RGB颜色空间 其他颜色图谱: 颜色图谱 描述 autum
2017-06-06 11:43:23 1048
转载 python图像
一、图像通道from PIL import Imageimport matplotlib.pyplot as pltimg=Image.open('d:/ex.jpg')gray=img.convert('L')plt.figure("beauty")plt.imshow(gray,cmap='gray')plt.axis('off')plt.show()使用convert()函数来进
2017-06-06 11:03:24 569
转载 python——图像处理
打开、显示、保存图像要使用python进行各种开发,就必须安装对应的库。这和matlab非常相似,只是matlab里面叫工具箱(toolbox),而python里面叫库或包。安装这些库,一般都是使用pip来安装。使用python进行数字图片处理,还得安装Pillow包。虽然python里面自带一个PIL(python images library), 但这个库现在已经停止更新了,所以使用Pillow
2017-06-06 10:19:13 738
转载 keras_序惯模型(Sequential)
快速开始序惯模型(Sequential)序惯模型是多个网络层的线性堆叠。可以通过Sequential模型传递一个layer的list来构造该模型:from keras.models import Sequentialfrom keras.layers import Dense,Activationmodel =Sequential([Dense(32,units=784),Activati
2017-06-04 11:24:17 3336
转载 Keras——Tensorflow
Keras——Tensorflowkeras中主要模型是Sqquential模型,Sequential是一系列网络层按顺序构成的栈。Sequential模型如下:from keras.models import Sequentialmodel = Sequential()将一些网络层通过.add()堆叠起来,构成一个模型:from keras.layers import Dense,Acti
2017-06-03 23:15:04 676
转载 Caffe——Python接口学习:绘制loss和accuracy曲线
Caffe——python接口学习:绘制loss和accuracy曲线使用python接口来运行caffe程序,主要的原因是python非常容易可视化。所以不推荐大家在命令行下面运行python程序。如果非要在命令行下面运行,还不如直接用 c++算了。推荐使用jupyter notebook,spyder等工具来运行python代码,这样才和它的可视化完美结合起来。因为我是用anaconda来安装一
2017-06-03 16:30:02 564
转载 Caffe——python接口学习(6):用训练好的模型来分类新的图片
Caffe——python接口学习(6):用训练好的模型来分类新的图片我们利用前面训练好的caffemodel模型和生成的deploy.prototxt文件,来对一个新的文件进行分类预测。从mnist数据集中随便找一张图片,来进行实验:#coding=utf-8import caffeimport numpy as nproot='/home/xxx/' #根目录deploy=root
2017-06-03 16:26:11 526
转载 Caffe——python接口学习:生成deploy文件
Caffe——python接口学习:生成deploy文件如果要把训练好的模型拿来测试新的图片,那必须得要一个deploy.prototxt文件,这个文件实际上和test.prototxt文件差不多,只是头尾不相同而也。deploy文件没有第一层数据输入层,也没有最后的Accuracy层,但最后多了一个Softmax概率层。这里我们采用代码的方式来自动生成该文件,以mnist为例。# -*- co
2017-06-03 11:30:14 329
转载 Caffe——Python接口学习(4):mnist实例——手写数字识别
Caffe——python接口学习(4):mnist实例——手写数字识别一、数据准备官网提供的mnist数据并不是图片,但我们以后做的实际项目可能是图片。因此有些人并不知道该怎么办。在此我将mnist数据进行了转化,变成了一张张的图片,我们练习就从图片开始。mnist图片数据我放在了百度云盘。mnist图片数据下载:http://pan.baidu.com/s/1pLMV4Kz数据分成了训练集
2017-06-03 10:36:03 446
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人