deep learning
文章平均质量分 78
susandebug
keep moving
展开
-
Caffe: solver及其配置
orignal article: 点击打开链接solver算是caffe的核心的核心,它协调着整个模型的运作。caffe程序运行必带的一个参数就是solver配置文件。运行代码一般为# caffe train --solver=*_slover.prototxt在Deep Learning中,往往loss function是非凸的,没有解析解,我们需要通过优化方转载 2016-02-24 10:20:36 · 756 阅读 · 0 评论 -
Batch Normalization 学习笔记
Batch Normalization 学习笔记原文地址:http://blog.csdn.net/hjimce/article/details/50866313作者:hjimce一、背景意义本篇博文主要讲解2015年深度学习领域,非常值得学习的一篇文献:《Batch Normalization: Accelerating Deep Network Traini转载 2016-04-20 16:25:09 · 3346 阅读 · 0 评论 -
[notes] ImageNet Classification with Deep Convolutional Neual NetworkPaper: ImageNet Classification
转自blog:http://blog.csdn.net/sunbaigui/article/details/28105847Paper:ImageNet Classification with Deep Convolutional Neual NetworkAchievements:The model addressed by Alex etl. achieved to转载 2016-04-21 09:38:36 · 799 阅读 · 0 评论 -
深度学习之图像分类模型Cifar10数据集解读
CIFAR-10数据集含有6万个32*32的彩色图像,共分为10种类型,由 Alex Krizhevsky, Vinod Nair和 Geoffrey Hinton收集而来。包含50000张训练图片,10000张测试图片http://www.cs.toronto.edu/~kriz/cifar.html数据集的数据存在一个10000*3072 的 numpy数组中,单位是uint8s,转载 2016-04-21 15:03:12 · 7223 阅读 · 0 评论 -
深度学习之图像分类模型AlexNet解读
本文转自:http://blog.csdn.net/sunbaigui/article/details/39938097在imagenet上的图像分类challenge上Alex提出的alexnet网络结构模型赢得了2012届的冠军。要研究CNN类型DL网络模型在图像分类上的应用,就逃不开研究alexnet,这是CNN在图像分类上的经典模型(DL火起来之后)。在DL开源实现caffe的转载 2016-04-21 14:59:49 · 3136 阅读 · 0 评论 -
深度学习之图像分割 《Fully Convolutional Networks for Semantic Segmentation》—FCN
【论文信息】《Fully Convolutional Networks for Semantic Segmentation》CVPR 2015 best paperkey word: pixel level, fully supervised, CNN【方法简介】主要思路是把CNN改为FCN,输入一幅图像后直接在输出端得到dense prediction,也转载 2016-04-21 15:34:49 · 23943 阅读 · 4 评论 -
DeepMind背后的人工智能:深度学习原理初探
去年11月,一篇名为《Playing Atari with Deep Reinforcement Learning》的文章被初创人工智能公司DeepMind的员工上传到了arXiv网站。两个月之后,谷歌花了500万欧元买下了DeepMind公司,而人们对这个公司的了解仅限于这篇文章。近日,Tartu大学计算机科学系计算神经学小组的学者在robohub网站发表文章,阐述了他们对DeepMind人工智转载 2016-05-20 17:16:06 · 2720 阅读 · 0 评论 -
深度学习随手笔记
本博文是在看资料的过程中发现的一些比较有用或者有意思的点,随手记录并长期保持更新.20160520深度学习还有什么坑?就要看看目前的深度学习都从哪些方面去研究。个人觉得当前深度学习领域的学术研究可以包含四部分:优化(Optimization),泛化(Generalization),表达(Representation)以及应用(Applications)。除了应用(Appli原创 2016-05-20 17:24:19 · 636 阅读 · 0 评论 -
深度学习框架的比较(MXNet, Caffe, TensorFlow, Torch, Theano)
1. 基本概念1.1 MXNet相关概念 深度学习目标:如何方便的表述神经网络,以及如何快速训练得到模型 CNN(卷积层):表达空间相关性(学表示) RNN/LSTM:表达时间连续性(建模时序信号) 命令式编程(imperative programming):嵌入的较浅,其中每个语句都按原来的意思执行,如numpy和Torch就是属于这种转载 2016-09-03 10:42:20 · 1721 阅读 · 0 评论 -
Convolution Networks 和Deconvolution Networks
一.卷积的概念卷积是分析数学中的一种重要运算,英文convolution。需要注意的是,以下我们考虑都是离散情况下的卷积操作。从概念上说,卷积是线性情况的下的滤波处理,性滤波处理经常被称为“掩码与图像的卷积”[1]。具体的操作则是,卷积是两个变量在某范围内相乘后求和的结果。如果卷积的变量是序列x(n)和h(n),则卷积的结果。其中*表示卷积。那对于二维图像上的卷积操作,是计转载 2016-12-15 09:18:09 · 933 阅读 · 0 评论 -
Models in TensorFlow from GitHub
转载网址:http://note.youdao.com/share/?id=71216576910b7a6cd6f2a0f2ebf8faa2&type=note#/ —— 感谢AI研习社的分享Models in TensorFlow from GitHub图像处理/识别 1.PixelCNN &PixelRNN in TensorFlowTensorFlo转载 2017-07-20 20:39:38 · 1857 阅读 · 0 评论 -
Must Know Tips/Tricks in Deep Neural Networks
Must Know Tips/Tricks in Deep Neural Networks Deep Neural Networks, especially Convolutional Neural Networks (CNN), allows computational models that are composed of multiple processin转载 2016-04-20 16:51:38 · 1552 阅读 · 0 评论 -
对 CNN 中 dropout layer 的理解
对 CNN 中 dropout layer 的理解[摘要:dropout layer的目标是为了防备CNN 过拟开。那末为何能够有用的防备过拟开呢? 起首,设想我们目前只练习一个特定的收集,当迭代次数增加的时间,大概涌现收集对练习散拟开的很好]dropout layer的目的是为了防止CNN 过拟合。那么为什么可以有效的防止过拟合呢?首先,想象我们现在只训练一个特定的网转载 2016-04-19 16:47:14 · 2818 阅读 · 0 评论 -
用NN实现数据的降维——RBM
最近在学习RBM,很多知识容易遗忘,因此:转载到此,mark一下Deep learning:三十四(用NN实现数据的降维) 数据降维的重要性就不必说了,而用NN(神经网络)来对数据进行大量的降维是从2006开始的,这起源于2006年science上的一篇文章:reducing the dimensionality of data with neural networks,作转载 2016-02-24 15:27:07 · 3102 阅读 · 0 评论 -
用NN实现数据降维练习——RBM
Deep learning:三十五(用NN实现数据降维练习) 前言: 本文是针对上篇博文Deep learning:三十四(用NN实现数据的降维)的练习部分,也就是Hition大牛science文章reducing the dimensionality of data with neural networks的code部分,其code下载见:http://www.cs.t转载 2016-02-24 15:28:42 · 4942 阅读 · 6 评论 -
Sublime Text 3安装与使用
Sublime Text 3安装与使用本文是Sublime Text 全程指引 by Lucida (http://www.cnblogs.com/figure9/p/sublime-text-complete-guide.html)的笔记,并添加了自己整理的一些内容,感谢原作者。1. 下载可以从官网 http://www.sublimetext.com/3 下载。2. Win转载 2016-04-25 16:08:12 · 1098 阅读 · 0 评论 -
深度学习中的batch的大小对学习效果的影响
深度学习中的batch的大小对学习效果的影响 Batch_Size(批尺寸)是机器学习中一个重要参数,涉及诸多矛盾,下面逐一展开。 首先,为什么需要有 Batch_Size 这个参数? Batch 的选择,首先决定的是下降的方向。如果数据集比较小,完全可以采用全数据集 ( Full Batch Learning )的形式,这样做至少有 2 个好处:其一,由全数据集确定转载 2016-04-26 16:54:04 · 2389 阅读 · 0 评论 -
googleNet Inception v1 - v4 papers 发展历程
google Inception v1 - v4 papers 发展历程先上Paper列表:[v1] Going Deeper with Convolutions, 6.67% test error, http://arxiv.org/abs/1409.4842[v2] Batch Normalization: Accelerating Deep Network Training by原创 2016-04-21 09:58:23 · 22185 阅读 · 3 评论 -
如何在caffe中添加新的Layer
本文分为两部分,先写一个入门的教程,然后再给出自己添加maxout与NIN的layer的方法(一)其实在Github上已经有答案了(https://github.com/BVLC/caffe/issues/684)Here's roughly the process I follow.Add a class declaration for your laye转载 2016-04-29 15:50:24 · 772 阅读 · 1 评论 -
VGG very deep 19 layer prototxt
name: "VGG_ILSVRC_19_layer"layer { name: "data" type: "ImageData" top: "data" top: "label" include { phase: TRAIN } image_data_param { batch_size: 12 source: "../../fine原创 2016-04-14 20:35:18 · 3039 阅读 · 5 评论 -
caffe 中的损失函数分析
目前大部分机器学习算法都是基于统计学, 统计学习方法的三要素:模型策略和算法。基本步骤: 1 得到有限的训练数据集合 2 确定包含所有可能的模型假设空间,即学习模型的集合 3 确定模型选择的准则,其学习策略 4 实现求解最优模型的算法,即学习的算法 5 通过学习方法 选择最优模型,(刚开始随机初始化模型) 6 利用转载 2016-05-26 16:35:50 · 1831 阅读 · 0 评论 -
caffe layer parameters set ——caffe 层的配置
最近刚在电脑上装好Caffe,由于神经网络中有不同的层结构,不同类型的层又有不同的参数,所有就根据Caffe官网的说明文档做了一个简单的总结。之后再实践过程中补充每个层的作用1. Vision Layers1.1 卷积层(Convolution)类型:CONVOLUTION例子layers { name: "conv1" type: CONVOLUTIO原创 2016-04-19 16:07:40 · 1374 阅读 · 0 评论 -
caffe 源码简单剖析
原文来自:http://www.shwley.com/index.php/archives/68/ Posted by 影风LEY on December 3, 2014ps.图总结的很好,i like~—————————————以下为原文———————————————前言老实说,caffe中的layer层代码比较多,各种抽象看起来比较绕。官方关于Layer的教程写的很转载 2016-04-19 16:27:02 · 747 阅读 · 0 评论 -
深度对抗学习在图像分割和超分辨率中的应用
深度学习已经在图像分类、检测、分割、高分辨率图像生成等诸多领域取得了突破性的成绩。但是它也存在一些问题。首先,它与传统的机器学习方法一样,通常假设训练数据与测试数据服从同样的分布,或者是在训练数据上的预测结果与在测试数据上的预测结果服从同样的分布。而实际上这两者存在一定的偏差,比如在测试数据上的预测准确率就通常比在训练数据上的要低,这就是过度拟合的问题。另一个问题是深度学习的模型(比如卷积神经转载 2017-07-18 15:01:48 · 702 阅读 · 0 评论