机器学习与深度学习
文章平均质量分 84
迷上微笑
这个作者很懒,什么都没留下…
展开
-
ubuntu16.04配置caffe(CPU版)
一、安装依赖项sudo apt-get install libprotobuf-dev libleveldb-dev libsnappy-dev libopencv-dev libhdf5-serial-dev protobuf-compilersudo apt-get install --no-install-recommends libboost-all-devsudo apt-g原创 2017-02-23 19:17:47 · 6190 阅读 · 2 评论 -
ubuntu16.04配置py-faster-rcnn(CPU版)
Caffe配置:采用http://blog.csdn.net/u013989576/article/details/56677749配置好caffepy-faster-rcnn配置:1、下载py-faster-rcnn源码 git clone --recursive https://github.com/rbgirshick/py-faster-rcnn.git2、安原创 2017-05-23 21:34:54 · 1894 阅读 · 0 评论 -
caffe中的一些特殊层
Reshape layerlayer { name: "reshape" //名称:reshape type: "Reshape" //类型:Reshape bottom: "data" //输入层名称:data top: "datax" //输出层名称:datax reshap原创 2017-06-15 17:33:39 · 3227 阅读 · 0 评论 -
基于深度学习的目标检测算法:YOLO
之前学习的RCNN系列的目标检测算法都是先提取出候选区域,然后利用分类器识别这些区域,并对候选区域进行位置修正。这类方法流程复杂,存在着速度慢、训练困难的等缺点。 YOLO算法将检测问题看做是回归问题,采用单个神经网络,利用整个图像的信息来预测目标的边框、识别目标的类别,实现端到端的目标检测,如图所示。YOLO相比于之前的算法有如下优点:1)非常快。YOLO的流程简单,速度很原创 2017-05-27 14:52:38 · 16170 阅读 · 2 评论 -
基于深度学习的目标检测算法:SSD
SSD: Single Shot MultiBox Detector 问题引入:目前,常见的目标检测算法,如Faster R-CNN,存在着速度慢的缺点。该论文提出的SSD方法,不仅提高了速度,而且提高了准确度。SSD:该论文的核心思想:原创 2017-06-18 21:07:47 · 101241 阅读 · 0 评论 -
卷积神经网络与caffe的卷积层、池化层
卷积神经网络卷积神经网络(CNN)是深度学习技术中极具代表的网络结构之一,在图像处理领域取得了很大的成功。在国际标准ImageNet数据集上,许多成功的模型都是基于CNN的。CNN相较于传统的图像处理算法的优点之一在于:可以直接输入原始图像,避免了对图像复杂的前期预处理过程(如:提取特征等)。传统的神经网络采用全连接的方式,即:输入层到隐藏层的神经元都是全部连接的,这样做将导致参数量巨原创 2017-04-13 13:31:53 · 35323 阅读 · 1 评论 -
深度学习中Dropout优化的原理分析
本文主要参考博文:1. http://www.aiuxian.com/article/p-1870737.html2. http://shuokay.com/2016/06/14/dropout/引言在机器学习的一些模型中,如果模型的参数太多,而训练样本又太少的话,这样训练出来的模型很容易产生过拟合现象。在训练bp网络时经常遇到的这个问题,过拟合指的是模型在训练数据上损原创 2017-04-14 18:31:22 · 9286 阅读 · 2 评论 -
深度学习中激活函数
本文主要参考博文:1. http://blog.csdn.net/u014595019/article/details/525621592. https://zhuanlan.zhihu.com/p/22142013激活函数的作用 神经网络中激活函数的主要作用是提供网络的非线性建模能力。假设一个神经网络中仅包含线性卷积和全连接运算,那么该网络仅能够表达线性映射,即便原创 2017-04-15 17:38:11 · 9289 阅读 · 0 评论 -
深度学习中momentum的作用
训练网络时,通常先对网络的初始权值按照某种分布进行初始化,如:高斯分布。初始化权值操作对最终网络的性能影响比较大,合适的网络初始权值能够使得损失函数在训练过程中的收敛速度更快,从而获得更好的优化结果。但是按照某类分布随机初始化网络权值,存在一些不确定因素,并不能保证每一次初始化操作都能使得网络的初始权值处在一个合适的状态。不恰当的初始权值可能使得网络的损失函数在训练过程中陷入局部最小值原创 2017-04-19 15:36:19 · 31017 阅读 · 1 评论 -
基于深度学习的目标检测方法:R-CNN
R-CNN论文:Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition 该方法主要包括以下流程:候选框的选取、CNN、SVM分类器、修正目标框。候选框的选取 目前有很多选取候选框的方法,如:objectness, selective search,category-i原创 2017-05-18 18:45:04 · 2079 阅读 · 0 评论 -
神经网络中权值初始化的方法
权值初始化的方法主要有:常量初始化(constant)、高斯分布初始化(gaussian)、positive_unitball初始化、均匀分布初始化(uniform)、xavier初始化、msra初始化、双线性初始化(bilinear)常量初始化(constant) 把权值或着偏置初始化为一个常数,具体是什么常数,可以自己定义高斯分布原创 2017-07-27 18:44:09 · 18354 阅读 · 0 评论 -
基于深度学习的目标检测方法:SPP-net
SPP-net 论文:Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition 在R-CNN中,要求输入固定大小的图片,因此需要对图片进行crop、wrap变换。此外,对每一个图像中每一个proposal进行一遍CNN前向特征提取,如果是2000个prop原创 2017-05-18 22:03:16 · 5399 阅读 · 0 评论 -
图像分割之FCN
论文:Fully Convolutional Networks forSemantic Segmentation基于caffe的代码:https://github.com/shelhamer/fcn.berkeleyvision.org反卷积: 在学习FCN之前,需要了解反卷积相关的知识。论文Adaptive deconvolutional networks for mi原创 2017-06-14 17:25:34 · 4032 阅读 · 0 评论 -
基于深度学习的目标检测算法:Faster R-CNN
问题引入: R-CNN、SPP net、Fast R-CNN等目标检测算法,它们proposals都是事先通过selecetive search方法得到。然而,这一过程耗费大量的时间,这影响目标检测系统的实时性。Faster R-CNN针对这一问题,提出了Region Proposal Network(RPN),利用RPN模型来得到proposals,此外,为了节省时间,该模型与原创 2017-05-23 17:01:56 · 8448 阅读 · 0 评论 -
caffe之绘制网络模型
在Caffe中,目前有两种可视化prototxt格式网络结构的方法:1. 使用Netscope在线可视化2. 使用Caffe提供的draw_net.py1. 使用Netscope在线可视化Netscope是个支持prototxt格式描述的神经网络结构的在线可视工具,地址:http://ethereon.github.io/netscope/quickstart.html转载 2017-03-12 15:41:35 · 5229 阅读 · 1 评论 -
protobuf 数据类型
要通信,必须有协议,否则双方无法理解对方的码流。在protobuf中,协议是由一系列的消息组成的。因此最重要的就是定义通信时使用到的消息格式。 Protobuf消息定义:消息由至少一个字段组合而成,类似于c语言中的结构。每个字段都有一定的格式。字段格式:限定修饰符① | 数据类型② | 字段名称③ | = | 字段编码值④ | [字段默认值⑤]例如:repe转载 2017-03-26 16:44:54 · 8932 阅读 · 0 评论 -
caffe数据层
数据经过数据层进入caffe 网络:数据层处于网络的最底层, 数据可以从高效率的数据库中读取(如: LevelDB, LMDB), 可以直接从内存中读取, 若对读写效率要求不高也可以从硬盘上的 HDFT 文件或者普通的图片文件读取。数据来自于数据库: 层类型(layer type):Data必须设置的参数: source: 包含数据库的目录名称,转载 2017-04-28 11:21:47 · 334 阅读 · 0 评论 -
caffe简介
转自:http://blog.luoyetx.com/2015/10/reading-caffe-1/Caffe 是一个深度学习的框架,以 C++ 编写,性能卓越,并且现在已经支持单机多 GPU 运算。这篇博文包括之后的文章记录了我自己阅读学习 Caffe 源码的过程,也借此鼓励自己坚持下去,好好向 Caffe 的作者学习。深度学习在这几年火得不行,尤其是 CNN 已经成为了解决视转载 2017-02-24 19:38:31 · 531 阅读 · 0 评论 -
Lenet、Alexnet 、VGG、 GoogleNet、ResNet模型
各个模型的对比LeNet: 该模型主要是用于识别10个手写数字的。AlexNet:原创 2017-05-11 11:09:03 · 17620 阅读 · 0 评论 -
caffe:利用python分类,并可视化模型参数、数据
caffe的分类与模型可视化翻译 2017-04-23 17:17:57 · 4296 阅读 · 0 评论 -
caffe提取特征
利用caffe提取特征,主要有两种方法:1. 利用命令行的方式,可以参考:http://caffe.berkeleyvision.org/gathered/examples/feature_extraction.html,这种方式提取的特征是lmdb形式的。为了可视化特征,可以先将lmdb格式的数据转换为mat格式的数据,再利用matlab来可视化特征。本方法主要参考博客:http://blo原创 2017-05-15 19:44:42 · 1882 阅读 · 2 评论 -
卷积神经网络工程实践技巧
本博客主要参考:http://study.163.com/course/courseLearn.htm?courseId=1003223001#/learn/video?lessonId=1004143071&courseId=1003223001数据增强:1. Horizontal flips,如下图所示:2,Random crops/scales从[256,480]随机原创 2017-05-26 16:30:54 · 1146 阅读 · 0 评论 -
caffe绘制训练过程中的accuracy、loss曲线
训练模型并保存日志文件 首先建立一个训练数据的脚本文件train.sh,其内容如下,其中,2>&1 | tee examples/mnist/mnist_train_log.log 是log日志文件的保存目录。#!/usr/bin/env sh set -e TOOLS=./build/tools $TOOLS/caffe train --solv原创 2017-05-06 22:12:16 · 8502 阅读 · 0 评论 -
基于深度学习的目标检测方法:fast R-CNN
fast R-CNN 论文:fast R-CNN R-CNN存在的缺点: 1、R-CNN是multi-stage pipeline。首先利用CNN提取特征,然后利用SVM进行分类,最后利用bounding-box regressors 修正目标框。 2、训练的时间开销、空间开销比较大。用于SVM、bounding-box原创 2017-05-19 10:55:55 · 890 阅读 · 0 评论 -
caffe中参数设置的解析
lenet_solver.prototxt:net: "examples/mnist/lenet_train_test.prototxt"test_iter: 100test_interval: 500base_lr: 0.01momentum: 0.9type: SGDweight_decay: 0.0005lr_policy: "inv"gamma: 0.0001powe原创 2017-04-27 17:30:14 · 5649 阅读 · 0 评论