自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(23)
  • 收藏
  • 关注

原创 改变IDEA模板光标停留的位置

IDEA创建类模板和方法模板(超详细)Intellij IDEA自定义类模板和方法模板改变IDEA模板光标停留的位置:$INDEX$如将光标停留在Description后面* * @Author xiejinlong * @Description $INDEX$ * @Date $date$ $time$ * @Param $param$ * @return $return$ **/...

2021-07-01 19:54:55 2690 1

转载 Linux学习笔记1:linux常用命令的英文单词缩写和含义

命令缩写:ls:list(列出目录内容)cd:Change Directory(改变目录)su:switch user 切换用户rpm:redhat package manager 红帽子打包管理器pwd:print work directory 打印当前目录 显示出当前工作目录的绝对路径ps: process status(进程状态,类似于windows的任务管理器) 常用参数:-a...

2018-09-25 17:51:20 156

转载 Caffe学习笔记13:使用Python合并lmdb文件

由于Caffe使用的存储图像的数据库是lmdb,因此有时候需要对lmdb文件进行操作,本文主要讲解如何用Python合并lmdb文件。没有lmdb支持的,需要用pip命令安装。pip install lmdb代码及注释如下:# coding=utf-8# filename: merge_lmdb.pyimport lmdb# 将两个lmdb文件合并成一个新的lmdbdef me...

2018-09-24 21:25:13 402

转载 Caffe学习笔记12:solver.prototxt各参数意义与设置

**caffe solver.prototxt参数意义与设置**batchsize:每迭代一次,网络训练图片的数量,例如:如果你的batchsize=256,则你的网络每迭代一次,训练256张图片;则,如果你的总图片张数为1280000张,则要想将你所有的图片通过网络训练一次,则需要1280000/256=5000次迭代。epoch:表示将所有图片在你的网络中训练一次所需要的迭代次数,...

2018-09-21 15:35:24 267

转载 机器学习笔记8 - 深度学习中常用的图像数据增强方法

图像数据增强方法概述图像数据准备对神经网络与卷积神经网络模型训练有重要影响,当样本空间不够或者样本数量不足的时候会严重影响训练或者导致训练出来的模型泛化程度不够,识别率与准确率不高!本文将会带你学会如何对已有的图像数据进行数据增强,获取样本的多样性与数据的多样性从而为训练模型打下良好基础。通读全文你将get到如何几个技能:1.使用标准化对图像进行图像增强 深度学习训练-详解图像数据标准化与...

2018-09-13 20:41:57 6669 1

转载 Caffe学习笔记11:Ubuntu 16.04 中 caffe 编译出现的错误——fatal error: hdf5.h: 没有那个文件或目录

step 1:cd /usr/lib/x86_64-linux-gnusudo ln -s libhdf5_serial.so.8.0.2 libhdf5.sosudo ln -s libhdf5_serial_hl.so.8.0.2 libhdf5_hl.sostep 2:change Makefile.config //打开Makefile.config将下面的IN...

2018-09-04 20:22:59 820

转载 Caffe学习笔记10:Caffe框架下如何训练自己的数据集和网络

当我们安装了 Caffe 框架,经过了 MNIST,和 cifar10 练手以后,开始慢慢熟悉这个经典的框架了,不过总是有需要训练自己准备的图片集和网络的时候,下面是我在使用时个人的一些小总结,以及用到的一些小脚本文件,若有错误之处或者建议意见,欢迎留言,互相交流学习。注:下面每个过程内容不全是连续的,可能文件名看着有些乱,但是每个步骤的操作都是一样的,只要对应这自己修改相应文件的路径和名字就...

2018-09-04 12:37:10 230 1

转载 机器学习笔记7 - 反向传播

理解反向传播 back propagation作用首先需要明白反向传播(back propagation)的作用: 深度学习的训练是损失函数(loss function)最小化的过程,一般采取梯度下降法求解。那么怎么计算梯度呢?这就要用到back propagation了。 计算一个数学表达式的梯度是很直接的,但计算是昂贵的。而反向传播算法使用简单的方法有效的减少了计算量,反向传播...

2018-08-02 21:27:05 382

转载 机器学习笔记6 - 梯度下降

梯度下降的思想梯度下降是求得函数最小值的算法。在逻辑回归中,梯度下降用来求得损失函数(或代价函数)的最小值J(θ)min。 初始随机选择权重参数组合(θ0,θ1,…,θn),计算损失函数(或代价函数),然后寻找下一个能让损失函数(或代价函数)值下降最多的权重参数组合。注:梯度下降在线性回归中求得是平方误差代价函数的最小值,逻辑回归中是求得损失函数的最小值。无论是代价函数还是损失函数(其...

2018-08-02 15:29:15 198

转载 机器学习笔记5 - 线性分类器

线性分类器 评分函数 score function线性分类器的理解和解释损失函数 loss function 多类SVMsoftmax分类器SVM和softmax比较KNN分类器存在的不足:分类器必须记住所有的训练数据并存储起来,以便未来测试数据比较,需要很大的空间对一个测试数据需要与所有的训练数据进行比较,需要很大的计算资源和时间为此,我们需要一种更好的方法...

2018-08-02 14:51:53 373

转载 机器学习笔记4 - K-最近邻算法(KNN)

一 . K-近邻算法(KNN)概述     最简单最初级的分类器是将全部的训练数据所对应的类别都记录下来,当测试对象的属性和某个训练对象的属性完全匹配时,便可以对其进行分类。但是怎么可能所有测试对象都会找到与之完全匹配的训练对象呢,其次就是存在一个测试对象同时与多个训练对象匹配,导致一个训练对象被分到了多个类的问题,基于这些问...

2018-08-01 22:53:52 242

转载 机器学习笔记3 - 偏差、方差与欠拟合、过拟合的关系

首先,我们先来理解一下偏差与方差的概念。举个高中数学里经常出现的例子,两个射击选手在射靶。甲射出的子弹很集中在某个区域,但是都偏离了靶心。我们说他的射击很稳定,但是不够准,准确性差。也就是说他的方差小(子弹很集中在某个区域),但是他的偏差大(子弹打中的地方距离靶心远)。相反,乙射出的子弹比较分散,但是有些很准,中了靶心...

2018-07-30 20:12:03 585

转载 机器学习笔记2 - 理解机器学习中的偏差与方差

学习算法的预测误差, 或者说泛化误差(generalization error)可以分解为三个部分: 偏差(bias), 方差(variance) 和噪声(noise). 在估计学习算法性能的过程中, 我们主要关注偏差与方差. 因为噪声属于不可约减的误差 (irreducible error).首先抛开机器学习的范...

2018-07-30 20:09:36 216

转载 机器学习笔记1 - 奥卡姆剃刀和没有免费的午餐理论

一、奥卡姆剃刀(Occam’s razor) 奥卡姆剃刀原则主张选择与经验观察一致的最简单假设,是一种常用的、自然科学研究中最基本的原则,即“若有多个假设与观察一直,则选最简单的那个”。 举个例子。假如有一些连续点,可以用二次或更复杂的函数拟合,那么就用二次函数来拟合。 问题是,怎么判断,哪一个假设更“简单”? 这就要用其他机制来来解决了,这个问题也一直困扰者研究者们,因此,对奥卡姆剃...

2018-07-29 11:11:26 771

转载 Caffe9:训练和测试自己的图片

在深度学习的实际应用中,我们经常用到的原始数据是图片文件,如jpg,jpeg,png,tif等格式的,而且有可能图片的大小还不一致。而在caffe中经常使用的数据类型是lmdb或leveldb,因此就产生了这样的一个问题:如何从原始图片文件转换成caffe中能够运行的db(leveldb/lmdb)...

2018-07-29 11:08:29 399

转载 Caffe8:命令行解析

caffe的运行提供三种接口:c++接口(命令行)、python接口和matlab接口。本文先对命令行进行解析,后续会依次介绍其它两个接口。caffe的c++主程序(caffe.cpp)放在根目录下的tools文件夹内, 当然还有一些其它的功能文件,如:convert_imageset.cpp,...

2018-07-29 11:07:55 174

转载 Caffe7:solver优化方法

上文提到,到目前为止,caffe总共提供了六种优化方法:Stochastic Gradient Descent (type: "SGD"),AdaDelta (type: "AdaDelta"),Adaptive Gradient (type: "AdaGrad"),Adam (type: ...

2018-07-29 11:07:15 123

转载 Caffe6:solver及其配置

solver算是caffe的核心的核心,它协调着整个模型的运作。caffe程序运行必带的一个参数就是solver配置文件。运行代码一般为# caffe train --solver=*_slover.prototxt在Deep Learning中,往往loss function是非凸的,没...

2018-07-29 11:06:39 118

转载 Caffe5:Blob,Layer and Net以及对应配置文件的编写

深度网络(net)是一个组合模型,它由许多相互连接的层(layers)组合而成。Caffe就是组建深度网络的这样一种工具,它按照一定的策略,一层一层的搭建出自己的模型。它将所有的信息数据定义为blobs,从而进行便利的操作和通讯。Blob是caffe框架中一种标准的数组,一种统一的内存接口,它详...

2018-07-29 11:06:03 175

转载 Caffe4:其它常用层及参数

本文讲解一些其它的常用层,包括:softmax_loss层,Inner Product层,accuracy层,reshape层和dropout层及其它们的参数配置。1、softmax-losssoftmax-loss层和softmax层计算大致是相同的。softmax是一个分类器,计算的...

2018-07-29 11:05:20 174

转载 Caffe3:激活层(Activiation Layers)及参数

在激活层中,对输入数据进行激活操作(实际上就是一种函数变换),是逐元素进行运算的。从bottom得到一个blob数据输入,运算后,从top输入一个blob数据。在运算过程中,没有改变数据的大小,即输入和输出的数据大小是相等的。输入:n*c*h*w输出:...

2018-07-29 11:03:56 152

转载 Caffe2:视觉层(Vision Layers)及参数

本文只讲解视觉层(Vision Layers)的参数,视觉层包括Convolution, Pooling, Local Response Normalization (LRN), im2col等层。1、Convolution层:就是卷积层,是卷积神...

2018-07-24 10:55:42 190

转载 Caffe1:数据层及参数

本系列大部分为转载,根据自己需求改写训练文件,大体流程相同。要运行caffe,需要先创建一个模型(model),如比较常用的Lenet,Alex等, 而一个模型由多个屋(layer)构成,每一屋又由许多参数组成。所有的参数都定义在caffe.proto这个文件中。要熟练使用caffe,最重要的就是学会配置文件(pro...

2018-07-24 10:54:19 158

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除