自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(18)
  • 资源 (5)
  • 收藏
  • 关注

转载 Caffe源码解析5:Conv_Layer

转载自:http://home.cnblogs.com/louyihang-loves-baiyan/ 这里主要讨论一下ConvolutionLayer相关的Layer: BaseConvolutionLayer ConvolutionLaye DeconvolutionLayer CuDNNConvolutionLayer Im2colLayer

2016-12-31 21:55:20 401

转载 Caffe源码解析4: Data_layer

转载自:http://home.cnblogs.com/louyihang-loves-baiyan/ data_layer应该是网络的最底层,主要是将数据送给blob进入到net中,在data_layer中存在多个跟data_layer相关的类 BaseDataLayer BasePrefetchingDataLayer DataLayer DummyDataL

2016-12-31 21:33:51 439

转载 Caffe源码解析3:Layer

转载自:http://home.cnblogs.com/louyihang-loves-baiyan/ layer这个类可以说是里面的一个基本类了,深度网络呢就是一层一层的layer,相互之间通过blob传输数据连接起来。首先layer必须要实现一个forward function,前递函数当然功能可以自己定义啦,在forward中呢他会从input也就是Layer的bottom(对了caffe

2016-12-30 22:00:28 1132

转载 Caffe源码解析2:SyncedMem

参考自:http://home.cnblogs.com/louyihang-loves-baiyan/ 根据前面一章对Blob的分析,我们看到blob.hpp中封装了#include "caffe/syncedmem.hpp",看到SyncedMem就知道,是在做内存同步的操作。这类个类的代码比较少,但是作用是非常明显的。文件对应着syncedmem.hpp和syncedmem.cpp 首先是

2016-12-30 20:30:35 367

转载 Caffe源码解析1:Blob

转载自:http://home.cnblogs.com/louyihang-loves-baiyan/ Caffe的万丈高楼(Net)是按照我们设计的图纸(prototxt)、用Blob这些砖块筑成一层层(Layer)楼房,最后通过SGD方法(Solver)进行简装修(Train)、精装修(Finetune)实现的。 首先查看Blob这个类(include/caffe/blob.hpp, 它的

2016-12-30 20:27:41 515

原创 Caffe的依赖库及源码目录结构

参考于:Caffe源码中各种依赖库的作用及简单使用_Linux编程_Linux公社-Linux系统门户网站 1. Boost库:它是一个可移植、跨平台,提供源代码的C++库,作为标准库的后备。 在Caffe中用到的Boost头文件包括: (1)、shared_ptr.hpp:智能指针,使用它可以不需要考虑内存释放的问题; (2)、date_time/posix_time/posix_tim

2016-12-28 20:55:38 551

转载 深度学习框架Caffe源码解析(概览)

转自:http://www.leiphone.com/news/201612/oZUj5d437bpSl5wc.html Caffe总体架构 Caffe框架主要有五个组件,Blob,Solver,Net,Layer,Proto,其结构图如下图1所示。Solver负责深度网络的训练,每个Solver中包含一个训练网络对象和一个测试网络对象。每个网络则由若干个Layer构成。每个Layer的输

2016-12-28 20:19:39 667

原创 Caffe之win10版安装小结--细数自己遇到的各种坑

参考自:基于Windows10 x64+visual Studio2013+Python2.7.12环境下的Caffe配置学习 windows7+visual studio 2013+CUDA7.5 编译caffe+配置matcaffe+配置pycaffe 背景:     最近翻开了《深度学习-21天实战Caffe》作为自己Caffe的入门,看到后面章节通过python draw_net.p

2016-12-26 22:28:51 21115 6

原创 Win10上编译Caffe之Libcaffe,运行mnist案例

参考:http://www.cnblogs.com/cxyxbk/p/5902034.html 最初的想法是动手熟悉Caffe,考虑到Vmware实在太卡,所以考虑在windows环境的笔记本上进行操作。 前期准备:1.VS 2013   2. windows版的Caffe(https://github.com/BVLC/caffe/tree/windows),直接下载即可。 Caffe安装

2016-12-23 21:29:21 9105 2

原创 小白学《神经网络与深度学习》笔记之五:深度学习的胜利:AlphaGo

1.1 AlphaGo的主要原理 AlphaGo是由三个不同部分组成: (1)估值网络:估计棋局的状态(运行时没有任何搜素动作),计算谁领先了,领先了多少步--计算每一方赢的概率 (2)走棋策略网络:给定当前局面,预测/采样下一步的走棋,运行时也没有进行任何搜索。 (3)树搜索(MCTS, 蒙特卡洛树搜索):把两个网络结合在一起,模拟下一步会发生什么,并通过策略网络选择最佳的落子位置

2016-12-18 21:53:37 859

转载 小白学《神经网络与深度学习》笔记之二-利用稀疏编码器找图像的基本单位(1)MatLab实现SparseAutoEncoder

前言 学完稀疏自编码器,参考http://deeplearning.stanford.edu/wiki/index.php/UFLDL%E6%95%99%E7%A8%8B中的Exercise:Sparse Autoencoder 使用MatLab完成练习要求。这个例子所要实现的内容大概如下:从给定的数据文件IMAGES.mat(这是一个512*512*10的三维数组,里面存了10张图片,每张图

2016-12-18 20:56:08 2505

转载 小白学《神经网络与深度学习》笔记之一-计算机的潜意识:浅谈神经网络-从神经元到深度学习

转载:http://www.cnblogs.com/subconscious/p/5058741.html 神经网络是一门重要的机器学习技术。它是目前最为火热的研究方向--深度学习的基础。学习神经网络不仅可以让你掌握一门强大的机器学习方法,同时也可以更好地帮助你理解深度学习技术。 本文以一种简单的,循序的方式讲解神经网络。适合对神经网络了解不多的同学。本文对阅读没有一定的前提要求,但是懂一些

2016-12-15 21:35:51 3693

原创 小白学《神经网络与深度学习》笔记之六-两个重要概念及其他杂项

1.1 迁移学习 在机器学习领域,迁移学习(Transferlearning)是一个比较新的名词。目前国内做这个方面的很少,我目前只知道香港科技大学杨强教授及上海交大的机器学习小组在从事这方面的研究,他们的学生Erheng Zhong以及一帮人就建立了这个一个资源。近几年他们已经取得大量的成果,发表了十几篇AI领域顶级的会议论文。 Qiang Yang http://www.cse.ust

2016-12-12 22:27:26 1744

转载 小白学《神经网络与深度学习》笔记之三-深度学习是个什么东西

先搞清楚几个概念:   1、机器学习   2、人工神经网络   3、深度神经网络   4、深度学习   深度神经网络通常是前馈型神经网络,特征是至少有一个隐层。反过来说,多层前馈神经网络都是深度神经网络,但深度神经网络不都是多层前馈神经网络,因为深度神经网络还包括了RNN和CNN。另外,深度神经网络说的是一种结构,而不是算法。 1.1 机器学习 人工神经网络和深度学习都属于机器学习的

2016-12-12 21:07:57 4904

转载 小白学《神经网络与深度学习》笔记之四-深度学习的常用方法(3)

1.7 循环神经网络 1.7.1 什么是RNN    首先,RNN是两种神经网络的缩写,一种是递归神经网络(Recursive Neural Network),一种是循环神经网络(Recurrent Neural Network),这里主要讨论第二种及其变种。    循环神经网络是指一个随着时间推移,重复发生的结构。例如,有一个序列X=[‘H’,’E’,’L’,’L’], 该序列被送到一个神

2016-12-11 21:00:35 1256

转载 小白学《神经网络与深度学习》笔记之四-深度学习的常用方法(2)

1.4 解决概率分布问题:限制波尔兹曼机 1.4.2 能量模型(接上期)     前面提到的”杰弗里.hinton”教授,2006年提出的DBN(Deep Belief Network),成为了深度学习的主要框架,而这个框架引入了生成模型(注意是生成模型,而非判别模型)。它可以直接自动的从训练集里提取所需要的特征,这解决了人工提取的考虑不周的因素,且对于神经网络权重做了非常重要的初始化。

2016-12-09 21:42:28 4990

原创 小白学《神经网络与深度学习》笔记之四-深度学习的常用方法(1)

2006年以来,机器学习领域突破性发展,不仅依赖于云计算、Hadoop框架的大数据的并行处理能力,还依赖于算法,该算法就是深度学习。它抽象模拟了人脑神经元传递信息和链接的方式。 1.1、模拟大脑的学习和重构       从单词“easy”到“Easy”的学习过程举例,引入自动编码器(AutoEncoder)的思想。昨天的学习单词“easy”是编码,今天的“Easy”还原出来是解码。 1.1.

2016-12-08 21:38:54 792

转载 TensorFlow 基本概念和用法

转载于:https://zhuanlan.zhihu.com/p/23932714 比喻说明: 结构:而计算图所建立的只是一个网络框架。在编程时,并不会有任何实际值出现在框架中。所有权重和偏移都是框架中的一部分,初始时至少给定初始值才能形成框架。因此需要initialization初始化。 比喻:计算图就是一个管道。编写网络就是搭建一个管道结构。在投入实际

2016-12-06 22:48:14 669

ISC2017互联网安全大会学习与回顾

2017年互联网安全大会ISC总结和回顾,含各位大神,云计算、AI、生物黑客等众多黑科技在安防领域的新发现

2018-01-04

人工智能中的哲学

人工智能的哲学,一篇人工智能的漫谈和随想,适合在AI浪潮中的我们开阔视野

2017-10-17

GAN生成对抗网络简介

关于生成对抗GAN的干货都在这里了。

2017-08-01

deeplearningbook_ch (1-6章)纯手打

深度学习的入门教程,由线性代数基础理论知识逐步深入,只节选了1-6章节

2017-01-24

mvc案例介绍asp

mvc的案例介绍,微软内容。初学者可以学习参考

2013-10-22

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除