自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(51)
  • 资源 (1)
  • 收藏
  • 关注

转载 deep learning学习笔记(2):深度学习概述:从感知机到深度网络

深度学习概述:从感知机到深度网络   (注:本文译自一篇博客,作者行文较随意,我尽量按原意翻译,但作者所介绍的知识还是非常好的,包括例子的选择、理论的介绍都很到位,由浅入深,源文地址)  近些年来,人工智能领域又活跃起来,除了传统了学术圈外,Google、Microsoft、facebook等工业界优秀企业也纷纷成立相关研究团队,并取得了很多令人瞩目的成果。这要归功于社

2016-04-29 17:05:24 1244

转载 RCNN学习笔记(10):总结RCNN -> Fast-RCNN -> Faster-RCNN

reference link:http://closure11.com/rcnn-fast-rcnn-faster-rcnn%E7%9A%84%E4%B8%80%E4%BA%9B%E4%BA%8B/RCNN -> Fast-RCNN -> Faster-RCNN这里不得不先提的就是为什么会有RCNN这一系列的检测算法,以及为什么它们会被称为深度对象检测的开山之作,我们知道,

2016-04-29 16:20:27 4405

原创 RCNN学习笔记(9):OverFeat:Integrated Recognition, Localization and Detection using Convolutional Networks

Reference link: http://blog.csdn.net/whiteinblue/article/details/43374195https://www.zybuluo.com/coolwyj/note/203086#1-classification    本文是纽约大学Yann LeCun团队中Pierre Sermanet ,David Eigen和张翔等在

2016-04-28 16:28:28 10636 4

原创 Deep learning学习笔记(2):Visualizing and Understanding Convolutional Networks(ZF-net)

reference link: http://blog.csdn.net/whiteinblue/article/details/43312059本文是Matthew D.Zeiler 和Rob Fergus于(纽约大学)13年撰写的论文,主要通过Deconvnet(反卷积)来可视化卷积网络,来理解卷积网络,并调整卷积网络;本文通过Deconvnet技术,可视化Alex-net,并

2016-04-28 15:41:43 5393

转载 Deep learning学习笔记(1):CNN的反向求导及练习

转自:http://www.cnblogs.com/tornadomeet/p/3468450.html  前言:  CNN作为DL中最成功的模型之一,有必要对其更进一步研究它。虽然在前面的博文Stacked CNN简单介绍中有大概介绍过CNN的使用,不过那是有个前提的:CNN中的参数必须已提前学习好。而本文的主要目的是介绍CNN参数在使用bp算法时该怎么训练,毕竟CNN中有卷

2016-04-28 15:38:29 1557

翻译 RCNN学习笔记(7):Faster R-CNN 英文论文翻译笔记

Faster R-CNN: Towards Real-Time Object Detection with Region Proposal NetworksShaoqing Ren, Kaiming He, Ross Girshick, Jian Sunreference link:http://blog.csdn.net/liumaolincycle/article/details/

2016-04-27 11:51:40 32765 12

转载 RCNN学习笔记(8):Fully Convolutional Networks for Semantic Segmentation(全卷积网络FCN)

论文阅读笔记:Fully Convolutional Networks forSemantic Segmentation这是CVPR 2015拿到best paper候选的论文。论文下载地址:Fully Convolutional Networks forSemantic Segmentation

2016-04-26 02:34:13 17738 1

原创 RCNN学习笔记(5):faster rcnn

reference link:http://blog.csdn.net/shenxiaolu1984/article/details/51152614http://blog.csdn.net/xyy19920105/article/details/50817725思想从RCNN到fast RCNN,再到本文的faster RCNN,目标检测的四个基本步骤(候选区域生成,特征

2016-04-26 02:19:05 34493 9

转载 RCNN学习笔记(6):You Only Look Once(YOLO):Unified, Real-Time Object Detection

这是继RCNN,fast-RCNN 和 faster-RCNN之后,rbg(Ross Girshick)大神挂名的又一大作,起了一个很娱乐化的名字:YOLO。 虽然目前版本还有一些硬伤,但是解决了目前基于DL检测中一个大痛点,就是速度问题。 其增强版本GPU中能跑45fps,简化版本155fps。

2016-04-25 20:56:38 26067 4

原创 RCNN学习笔记(4):fast rcnn

reference link:http://zhangliliang.com/2015/05/17/paper-note-fast-rcnn/http://blog.csdn.net/shenxiaolu1984/article/details/51036677论文出处见:http://arxiv.org/abs/1504.08083项目见:https://gith

2016-04-25 16:45:22 31711 4

转载 Tmux 使用说明

分类: BSDtmux #开启tmuxtmux ls #显示已有tmux列表(C-b s)tmux attach-session -t 数字 #选择tmuxC-b c 创建一个新的窗口C-b n 切换到下一个窗口C-b p 切换到上一个窗口C-b l 最后一个窗口,和上一个窗口的概念不一样哟,谁试谁知道c-b w 通过上下键选择当前窗口中打开的会话C-b

2016-04-25 14:29:12 855

原创 ssdtrain demo

编译成功后:--> cannot find google.protobuf.external-->conda install protobuf-->  File "examples/ssd/ssd_pascal_back.py", line 2, in                                   =    import caffe

2016-04-25 14:26:01 4111

转载 奇异值分解(SVD) --- 几何意义

PS:一直以来对SVD分解似懂非懂,此文为译文,原文以细致的分析+大量的可视化图形演示了SVD的几何意义。能在有限的篇幅把 这个问题讲解的如此清晰,实属不易。原文举了一个简单的图像处理问题,简单形象,真心希望路过的各路朋友能从不同的角度阐述下自己对SVD实际意义的理 解,比如 个性化推荐中应用了SVD,文本以及Web挖掘的时候也经常会用到SVD。原文:We recommend a si

2016-04-25 11:21:30 2128

转载 RCNN学习笔记(0):rcnn简介

reference link:http://blog.csdn.net/shenxiaolu1984/article/details/51066975Region CNN(RCNN)可以说是利用深度学习进行目标检测的开山之作。作者Ross Girshick多次在PASCAL VOC的目标检测竞赛中折桂,2010年更带领团队获得终身成就奖,如今供职于Facebook旗下的FAIR。 这篇

2016-04-25 10:25:48 42986 6

原创 深度学习笔记——参考条目

1.http://blog.csdn.net/whiteinblue/article/details/434513832.http://blog.csdn.net/hjimce/article/details/502685553.http://blog.csdn.net/chenriwei2/article/category/2339319

2016-04-24 23:26:47 1417

转载 RNN学习笔记:Understanding Deep Architectures using a Recursive Convolutional Network

reference link:http://blog.csdn.net/whiteinblue/article/details/43451383 本文是纽约大学Yann LeCun团队中Pierre Sermanet ,David Eigen和张翔等在13年撰写的一篇论文,本文改进了Alex-net,并用图像缩放和滑窗方法在test数据集上测试网络;提出了一种图像定位的方法;最后通过一

2016-04-24 23:23:34 1850

转载 Bounding box regression详解

Reference link:http://caffecn.cn/?/question/160Question:我只知道,输入检测到的box,回归的是检测到box中心点,以及box长和宽到标记的box的映射。看过rcnn的回归的过程,就是把那个loss函数最小。但这个红框里面的loss函数 谁能解释下-----------------------------

2016-04-24 21:26:57 27635 5

转载 深度学习 Deep Learning UFLDL 最新Tutorial 学习笔记 5:Softmax Regression

Softmax Regression Tutorial地址:http://ufldl.stanford.edu/tutorial/supervised/SoftmaxRegression/从本节开始,难度开始加大了,我将更详细地解释一下这个Tutorial。1 Softmax Regression 介绍前面我们已经知道了Logistic Regression,简单的说就

2016-04-24 21:07:48 1011

原创 非极大抑制(Non-maximum suppression)

一、Nms主要目的          在物体检测非极大抑制应用十分广泛,主要目的是为了消除多余的框,找到最佳的物体检测的位置。如上图中:虽然几个框都检测到了人脸,但是我不需要这么多的框,我需要找到一个最能表达人脸的框。下图汽车检测也是同样的原理。非极大值抑制因为一会儿讲RCNN算法,会从一张图片中找出n多个可能是物体的矩形框,然后为每个矩形框

2016-04-24 21:01:04 23419 8

转载 Caffe源码阅读(1) 全连接层

今天看全连接层的实现。主要看的是https://github.com/BVLC/caffe/blob/master/src/caffe/layers/inner_product_layer.cpp主要是三个方法,setup,forward,backwardsetup 初始化网络参数,包括了w和bforward 前向传播的实现backward 后向传播的实现setup主体

2016-04-22 23:44:13 1295

转载 Caffe源码阅读(2) 卷积层

一开始笔者先看了卷积层的梯度传导公式,参考了这两篇:http://ufldl.stanford.edu/tutorial/supervised/ConvolutionalNeuralNetwork/http://cogprints.org/5869/1/cnn_tutorial.pdf卷积层的参数

2016-04-22 23:42:43 990

转载 Caffe源码阅读(3)Softmax层和SoftmaxLoss层

Reference Link:http://zhangliliang.com/2015/05/27/about-caffe-code-softmax-loss-layer/关于softmax回归看过最清晰的关于softmax回归的文档来源自UFLDL,简单摘录如下。softmax用于多分类问题,比如0-9的数字识别,共有10个输出,而且这10个输出的概率和加起来应该为1

2016-04-22 23:36:16 6620 2

转载 CNNs学习笔记(6):涉及问题总结

文字识别系统LeNet-5        一种典型的用来识别数字的卷积网络是LeNet-5(效果和paper等见这)。当年美国大多数银行就是用它来识别支票上面的手写数字的。能够达到这种商用的地步,它的准确性可想而知。毕竟目前学术界和工业界的结合是最受争议的。      那下面咱们也用这个例子来说明下。        LeNet-5共有7层,不包含输入

2016-04-22 22:58:42 1205

转载 CNNs学习笔记(5): CNNs详细理解 Part2

reference : http://ibillxia.github.io/blog/2013/04/06/Convolutional-Neural-Networks/1. 概述卷积神经网络是一种特殊的深层的神经网络模型,它的特殊性体现在两个方面,一方面它的神经元间的连接是非全连接的, 另一方面同一层中某些神经元之间的连接的权重是共享的(即相同的)。它的非全连接和权值共享的网络

2016-04-22 22:51:09 3720

转载 CNNs学习笔记(5): CNNs详细理解 Part1

Reference:http://blog.csdn.net/zouxy09/article/details/87820181)卷积神经网络的历史       1962年Hubel和Wiesel通过对猫视觉皮层细胞的研究,提出了感受野(receptive field)的概念,1984年日本学者Fukushima基于感受野概念提出的神经认知机(neocognitron

2016-04-22 22:47:43 3138

转载 CNNs学习笔记(4):反向传播BP算法

本文的论文来自:Notes on Convolutional Neural Networks, Jake Bouvrie。         这个主要是CNN的推导和实现的一些笔记,再看懂这个笔记之前,最好具有CNN的一些基础。这里也先列出一个资料供参考:[1] Deep Learning(深度学习)学习笔记整理系列之(七)[2] LeNet-5, con

2016-04-22 22:35:01 6358

转载 CNNs学习笔记(2):deep learning训练过程

1、传统神经网络的训练方法为什么不能用在深度神经网络       BP算法作为传统训练多层网络的典型算法,实际上对仅含几层网络,该训练方法就已经很不理想。深度结构(涉及多个非线性处理单元层)非凸目标代价函数中普遍存在的局部最小是训练困难的主要来源。BP算法存在的问题:(1)梯度越来越稀疏:从顶层越往下,误差校正信号越来越小;(2)收敛到局部最小值:尤其是从远离最优区

2016-04-22 22:31:43 2418

转载 CNNs学习笔记(1):卷积神经网络-前世今生

一、什么是Deep Learning?实际生活中,人们为了解决一个问题,如对象的分类(对象可是是文档、图像等),首先必须做的事情是如何来表达一个对象,即必须抽取一些特征来表示一个对象,如文本的处理中,常常用词集合来表示一个文档,或把文档表示在向量空间中(称为VSM模型),然后才能提出不同的分类算法来进行分类;又如在图像处理中,我们可以用像素集合来表示一个图像,后来人们提出了新的特征表示,如

2016-04-22 22:26:12 2490

转载 CNNs学习笔记(3):卷积神经网络-Lenet-5实现

原文地址:http://blog.csdn.net/hjimce/article/details/47323463作者:hjimce卷积神经网络算法是n年前就有的算法,只是近年来因为深度学习相关算法为多层网络的训练提供了新方法,然后现在电脑的计算能力已非当年的那种计算水平,同时现在的训练数据很多,于是神经网络的相关算法又重新火了起来,因此卷积神经网络就又活了起来,再

2016-04-22 22:19:36 4562

原创 hard nagetive mining

Let’s say I give you a bunch of images that contain one or more people, and I give you bounding boxes for each one. Your classifier will need both positive training examples (person) and negative train

2016-04-22 17:50:00 7244

原创 RCNN学习笔记(3):Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition(SPP-net)

CNN网络需要固定尺寸的图像输入,SPPNet将任意大小的图像池化生成固定长度的图像表示,提升R-CNN检测的速度24-102倍。固定图像尺寸输入的问题,截取的区域未涵盖整个目标或者缩放带来图像的扭曲。事实上,CNN的卷积层不需要固定尺寸的图像,全连接层是需要固定大小输入的,因此提出了SPP层放到卷积层的后面,改进后的网络如下图所示:SPP是BOW的扩展,将图像从精细空间划分到粗糙

2016-04-22 14:31:46 31989 8

转载 L1,L2正则化理解-奥卡姆剃刀(Occam's razor)原理

L0、L1与L2范数转自:zouxy09@qq.com http://blog.csdn.net/zouxy09       今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则化。最后聊下规则化项参数的选择问题。这里因为篇幅比较庞大,为了不吓到大家,我将这个五个部分分成两篇博文。知识有限,以下都是我一些浅显的看法,如果理解存在

2016-04-22 11:59:48 9224

原创 RCNN学习笔记(2):Rich feature hierarchies for accurate object detection and semantic segmentation

基于R-CNN的物体检测一、相关理论   本篇博文主要讲解2014年CVPR上的经典paper:《Rich feature hierarchies for Accurate Object Detection and Segmenta

2016-04-22 10:57:27 37423 20

转载 RCNN学习笔记(1):Rich feature hierarchies for accurate object detection and semantic segmentation

rcnn主要作用就是用于物体检测,就是首先通过selective search 选择2000个候选区域,这些区域中有我们需要的所对应的物体的bounding-box,然后对于每一个region proposal 都wrap到固定的大小的scale,224*224,对于每一个处理之后的图片,把他都放到CNN上去进行特征提取,得到每个region proposal的feature map,这些特征

2016-04-22 10:56:04 35529 10

原创 error:export LD_LIBRARY_PATH is not a known library type

sudo /sbin/ldconfig -vlink:http://stackoverflow.com/questions/8665074/ldconfig-ld-library-path-is-not-a-known-library-type

2016-04-19 15:34:03 1892

原创 Understanding CNN

首先介绍BP的概念: 简单的描述就是,输入层将刺激传递给隐藏层,隐藏层通过神经元之间联系的强度(权重)和传递规则(激活函数)将刺激传到输出层,输出层整理隐藏层处理的后的刺激产生最终结果。若有正确的结果,那么将正确的结果和产生的结果进行比较,得到误差,再逆推对神经网中的链接权重进行反馈修正,从而来完成学习的过程。这就是BP神经网的反馈机制,也正是BP(Back Propagation)名字的来源

2016-04-19 14:05:38 830

原创 Good Tools for downloading Youtube source

Install on chrome http://en.savefrom.net/user.php?vid=360 \ http://en.savefrom.net/savefrom-helper-for-google-chrome.php

2016-04-18 19:28:56 697

原创 BP(Back Propagation)

简单的描述就是,输入层将刺激传递给隐藏层,隐藏层通过神经元之间联系的强度(权重)和传递规则(激活函数)将刺激传到输出层,输出层整理隐藏层处理的后的刺激产生最终结果。若有正确的结果,那么将正确的结果和产生的结果进行比较,得到误差,再逆推对神经网中的链接权重进行反馈修正,从而来完成学习的过程。这就是BP神经网的反馈机制,也正是BP(Back Propagation)名字的来源:运用向后反馈的学习机制,

2016-04-12 15:15:47 694

原创 Obeject Tracking Reference

Visual Tracker Benchmark http://cvlab.hanyang.ac.kr/tracker_benchmark/index.htmllink answer: http://www.zhihu.com/question/26493945

2016-04-12 14:26:02 677

原创 Matlab Language Index

http://www.yiibai.com/matlab/

2016-04-11 21:45:24 663

cacert.pem

修复SSL_connect returned=1 errno=0 state=SSLv3 read server certificate B: certificate verify failed.工具

2017-05-20

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除