- 博客(11)
- 资源 (3)
- 收藏
- 关注
转载 PCA(主元分析)的数学原理
PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。网上关于PCA的文章有很多,但是大多数只描述了PCA的分析过程,而没有讲述其中的原理。这篇文章的目的是介绍PCA的基本数学原理,帮助读者了解PCA的工作机制是什么。当然我并不打算把文章写成
2016-11-29 15:50:23 9267
转载 反卷积与语义分割
原文地址:http://blog.csdn.net/u012938704/article/details/53202103?locationNum=1&fps=1《Learning Deconvolution Network for Semantic Segmentation》阅读笔记FCN首先论文对比《Fully convolutional networks for
2016-11-24 14:28:35 2820
转载 用反卷积(Deconvnet)可视化理解卷积神经网络
可视化理解卷积神经网络原文地址:http://blog.csdn.net/hjimce/article/details/50544370作者:hjimce一、相关理论本篇博文主要讲解2014年ECCV上的一篇经典文献:《Visualizing and Understanding Convolutional Networks》,可以说是CNN领域可视化理解
2016-11-24 14:15:59 2808 3
原创 python多维数组分位数的求取
在python中计算一个多维数组的任意百分比分位数,只需用np.percenttile即可,十分方便import numpy as npa = [154, 400, 1124, 82, 94, 108]print np.percentile(a,95) # gives the 95th percentile
2016-11-20 15:13:46 8697 2
转载 安装第三方库出现 Python version 2.7 required, which was not found in the registry解决方法
安装第三方库出现 Python version 2.7 required, which was not found in the registry建立一个文件 register.py 内容如下. 然后执行该脚本.[python] view plain copyimport sys from _winreg impor
2016-11-16 11:31:12 422
转载 caffe的python接口学习(8):caffemodel中的参数及特征的抽取
如果用公式 y=f(wx+b)来表示整个运算过程的话,那么w和b就是我们需要训练的东西,w称为权值,在cnn中也可以叫做卷积核(filter),b是偏置项。f是激活函数,有sigmoid、relu等。x就是输入的数据。数据训练完成后,保存的caffemodel里面,实际上就是各层的w和b值。我们运行代码:deploy=root + 'mnist/deploy.pr
2016-11-16 10:17:14 677
转载 神经网络的Dropout的理解
Dropout是2012年深度学习视觉领域的开山之作paper:《ImageNet Classification with Deep Convolutional》所提到的算法,用于防止过拟合。在我刚入门深度学习,搞视觉的时候,就有所耳闻,当时只知道它是为了防止过拟合。记得以前啥也不懂,看到《ImageNet Classification with Deep Convolutional》的思路,然后
2016-11-15 20:32:50 8202
转载 LeNet的详细网络结构
针对MNIST的LeNet结构如下图所示:包含2个卷积层,2个max池化层,2个全连接接层和1个relu层与一个softmax层。下面我来推导一下每层的神经元数目和参数的个数。1、输入层:输入层输入一个28*28的图片。2、卷积层1:该层使用20个5*5的卷积核分别对输入层图片进行卷积,所以包含20*5*5=500个参数权值参数。卷积后图片边长为(28-5+1)
2016-11-14 21:50:51 6039
转载 ReLu(Rectified Linear Units)激活函数
起源:传统激活函数、脑神经元激活频率研究、稀疏激活性传统Sigmoid系激活函数传统神经网络中最常用的两个激活函数,Sigmoid系(Logistic-Sigmoid、Tanh-Sigmoid)被视为神经网络的核心所在。从数学上来看,非线性的Sigmoid函数对中央区的信号增益较大,对两侧区的信号增益小,在信号的特征空间映射上,有很好的效果。从神经科学上来看
2016-11-14 21:47:12 626
转载 从caffemodel中导出参数
原文地址:http://blog.csdn.net/u014510375/article/details/51704447最近读到一篇paper非常有意思,他们把caffe里训练好的模型的参数导出来了,然后…弄到了torch里。所以,今天就来看看怎么导出参数吧。 为了简单,这次我选的是LeNetimport numpy as npimport scipy.io as sio
2016-11-14 17:28:20 2526
转载 Linux(Ubuntu14.04)下安装Anaconda和Spyder
Linux(Ubuntu14.04)下安装Anaconda是为了安装Python所需要的各种库以及他们的环境配置。Spyder是使用python的IDE安装python和pip一般linux系统都自带python,所以不需要安装。如果没有的,安装起来也非常方便。安装完成后,可用version查看版本# python --versionpip是专门用于安装
2016-11-01 09:53:37 1457
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人