深度学习
Sunshine_in_Moon
对计算机视觉,深度学习方向很感兴趣,愿意和大家分享。现在学习大规模人脸识别,人脸检测等相关工作,希望得到大家的帮助!
展开
-
白化原理及Matlab实现
本文转自:http://blog.csdn.net/jiumi123/article/details/40423773原文地址:数据白化作者:紫de甘蓝白化的原理: 随机向量的“零均值化”和“空间解相关”(也叫白化)是最常用的两个预处理过程,其中“零均值化”比较简单,而“空间解相关”涉及一些矩阵的知识。 设有均值为零的随机信号向量 x ,其转载 2015-08-24 10:05:26 · 21080 阅读 · 7 评论 -
Dropout 理解
本文转自:http://blog.csdn.net/sheng_ai/article/details/41266923一.文献名字和作者 Dropout: A Simple Way to Prevent Neural Networks from Overtting 二.阅读时间 2014年11月19日三.文献的贡献点 这篇文章主要还是复转载 2015-12-09 15:29:40 · 1312 阅读 · 0 评论 -
Network In Network
本文转自:http://blog.csdn.net/sheng_ai/article/details/41313883一.文献名字和作者 Network In Network.Min Lin, Qiang Chen, Shuicheng Yan 二.阅读时间 2014年11月19日(我是2015.12.9)三.文献的目的 文章主要是转载 2015-12-09 14:58:47 · 697 阅读 · 0 评论 -
caffe学习笔记-数据库制作及计算均值文件命令格式(windows版)
在caffe-windows版中,将图片数据转换成lmdb或leveldb数据库格式的函数已经写好,如果编译成功,则这两个工具也成功生成了,下面简单介绍一下,在命令行里调用这两个工具的方法(本人小白一个,大神勿喷!)1.制作mnist数据库首先、cd到convert_mnist_data.exe文件下,然后,输入命令convert_mnist_data(注意此处没有.exe,我记得原创 2015-09-23 10:49:27 · 3847 阅读 · 2 评论 -
caffe-将图片转化为siamese网络需要的数据库格式
本文转自:http://blog.csdn.net/sheng_ai/article/details/48174729在此十分感谢博主分享!由于最近要用到siamese网络,大概跑了一下caffe自带的siamese网络的例程,发现例程中对于数据格式的转换仅仅局限于mnist数据集,不能直接将其他图片格式的数据集转换为需要的格式,因此,在分析了数据转化的逻辑之后,发现每一张图片的转转载 2015-09-22 11:40:12 · 4857 阅读 · 2 评论 -
caffe错误锦集
在安装和运行caffe(我使用的是caffe-windo版本)时遇到了很多错误,在此记录下来,与各位分享:1、在打开vs2013后,配置matcaffe和pycaffe属性是,一定要切换到Release X64下,否则找不到作者的matlab和Python路径;2、如果在运行examples中的例子时,你不用批处理文件,那就要修改Layer.prototxt和solver.prototxt原创 2015-09-23 11:21:26 · 1661 阅读 · 0 评论 -
Caffe训练网络时的点点滴滴
以前主要是微调网络,所以参数的设计非常简单,我们只需要注意转换数据时把参数--shuffle=true,loss收敛就不会有什么问题。但是最近我重新训练网络,发现参数调试真的是一个麻烦的事情。在这里总结一下,供大家参考。 通过我不断的试验和大神的提点,我调节的主要是学习率。我们可能已经听说了很多,如果loss不收敛就将学习率降低。但是,这在重新训练时是个误区,尤其是在训练的开始阶段。在开原创 2016-11-25 13:40:59 · 7917 阅读 · 4 评论 -
RCNN个人的几点见解
已经有将近一年的时间没有写博客了,说来真是惭愧。最近想学习一点目标检测的东西,今天看了RCNN,请教了同事一些不懂得地方,在这里做一个简短的总结。其实,网上种总结已经非常多了,我这里只想写点我个人的理解。方便以后回归使用。废话少说,直接进入正题。1、选择候选区域的算法,论文中使用的是“selective search”,我记得很久之前看这篇论文时,我还在网上找到过这个算法的源码,跑了一下,效果原创 2017-11-17 19:42:40 · 547 阅读 · 0 评论 -
Caffemodel之C++修改参数
对Caffemodel的解析,更直接的说是对protobuf的解析。对Protobuf来说最重要的有三个文件,***.proto,***.pb.h,和***.pb.cc。基本的操作流程是首先写***.proto文件,然后编译出***.pb.h和***.pb.cc两个文件,我们就可以对Protobuf进行读写和修改了。今天这里,我只想总结一下我在修改Caffemodel时遇到的一些坑,以及解原创 2017-12-09 15:29:31 · 1555 阅读 · 1 评论 -
三代DeepID简介
本文转自:http://blog.csdn.net/stdcoutzyx/article/details/42091205DeepID,目前最强人脸识别算法,已经三代。转载请注明:http://blog.csdn.net/stdcoutzyx/article/details/42091205如今,深度学习方兴未艾,大数据风起云涌,各个领域都在处于使用深度学习进行强突破的阶段,人转载 2015-10-15 11:39:56 · 2466 阅读 · 0 评论 -
dropout的理解
本文转自:http://blog.csdn.net/stdcoutzyx/article/details/49022443理解dropout注意:图片都在github上放着,如果刷不开的话,可以考虑翻墙。转载请注明:http://blog.csdn.net/stdcoutzyx/article/details/49022443开篇明义,dropout是指在深度学习网络的训练转载 2015-10-15 11:47:39 · 1655 阅读 · 0 评论 -
受限玻尔兹曼机(RBM,Restricted Boltzmann Machines)浅介
本文转自:http://blog.csdn.net/GrazyThinking/article/details/41282091本文是我在阅读[1]之后做的一个读书笔记,所以这里的内容几乎也是翻译外加一些自己的理解,希望对读者有益。 概括地说,RBM根据MLE原理来估计预定义分布中的参数,以便预定义分布能尽可能地逼近产生观测数据的未知分布。多个RBM分层堆叠而成的DBN(de转载 2015-09-07 10:44:39 · 1121 阅读 · 0 评论 -
caffe学习1
本文转自:http://write.blog.csdn.net/postedit?ref=toolbar安装按照官网教程安装,我在 OS X 10.9 和 Ubuntu 14.04 上面都安装成功了。主要麻烦在于 glog gflags gtest 这几个依赖项是google上面的需要翻墙。由于我用Mac没有CUDA,所以安装时需要设置 CPU_ONLY := 1。如果不是转载 2015-09-19 10:53:58 · 737 阅读 · 0 评论 -
Google Protocol Buffer 的使用和原理
本文转自:http://www.ibm.com/developerworks/cn/linux/l-cn-gpb/简介什么是 Google Protocol Buffer? 假如您在网上搜索,应该会得到类似这样的文字介绍:Google Protocol Buffer( 简称 Protobuf) 是 Google 公司内部的混合语言数据标准,目前已经正在使用的有超过 48,162转载 2015-09-19 10:52:34 · 723 阅读 · 0 评论 -
caffe学习3
本文转自:http://write.blog.csdn.net/postedit?ref=toolbarLayerLayer是所有层的基类,在Layer的基础上衍生出来的有5种Layers:data_layerneuron_layerloss_layercommon_layervision_layer它们都有对应的[.hpp .cpp]文件声明和实现了各个类的接口。下面转载 2015-09-19 11:15:50 · 750 阅读 · 0 评论 -
caffe学习2
本文转自:http://blog.csdn.net/t0903/article/details/48266169根据Caffe官方文档介绍,caffe大致可以分为三层结构blob,layer,net。数据的保存,交换以及操作都是以blob的形式进行的,layer是模型和计算的基础,net整和并连接layer。BlobsBlob是Caffe的基本数据结构,具有CPU和GPU之间同转载 2015-09-19 11:12:25 · 865 阅读 · 0 评论 -
使用SGD(Stochastic Gradient Descent)进行大规模机器学习
本文转自:http://blog.csdn.net/pi9nc/article/details/12217535使用SGD(Stochastic Gradient Descent)进行大规模机器学习 1 基于梯度下降的学习 对于一个简单的机器学习算法,每一个样例包含了一个(x,y)对,其中一个输入x和一个数值输出y。我们考虑损失函数,它描述了预测值和实际值y之间的损失。预测转载 2015-09-20 11:15:13 · 1327 阅读 · 0 评论 -
caffe报告笔记
本文转自:http://blog.csdn.net/hdanbang/article/details/44982191目录简介要点记录提问总结报告时间是北京时间 12月14日 凌晨一点到两点,主讲人是 Caffe 团队的核心之一 Evan Shelhamer。第一次用 GoToMeeting 参加视频会议,效果真是不错。报告后分享出了 视频转载 2015-09-22 11:35:28 · 1291 阅读 · 0 评论 -
ReLu(Rectified Linear Units)激活函数
本文转自:http://blog.csdn.net/liuxiabing150/article/details/48265791论文参考:Deep Sparse Rectifier Neural Networks (很有趣的一篇paper)起源:传统激活函数、脑神经元激活频率研究、稀疏激活性传统Sigmoid系激活函数Linear Units)激活函数" alt="技术分享"转载 2015-09-24 10:29:58 · 2259 阅读 · 0 评论 -
对一般分类CNN的FC2层中的权值W的一点儿思考
最近又重新看了L-Softmax Loss 和 A-Softmax Loss.对对一般分类CNN的FC2层中的权值W,有了自己的一点想法,与大家分享一下。如果大家对我提出的第6,7的两个问题,有自己的想法,希望给我留言,大家相互学习。 邮箱451413025@qq.com...原创 2018-05-30 16:27:34 · 1147 阅读 · 0 评论