![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
神经网络
pyStar_公众号
做技术,要胆大心细
展开
-
Siamese网络
Siamese网络原创 2020-07-20 21:34:46 · 773 阅读 · 0 评论 -
AlexNet---卷积网络声名鹊起
完整代码:LeNet实现完整代码AlexNetAlexNet由Hinton和他的学生Alex Krizhevsky设计,在2012年ImageNet竞赛中以超过第二名10.9个百分点的绝对优势一举夺冠。从此深度学习和卷积神经网络名声鹊起,深度学习的研究如雨后春笋般出现。论文:ImageNet Classification with Deep Convolutional Neural NetworksAlexNet网络结构操作输入数据维度输出数据维度卷积核卷积步长池化核大小池化原创 2020-07-11 21:25:19 · 290 阅读 · 0 评论 -
LeNet—卷积网络的开山之作
LeNet-5LeNet-5由Yann LeCun于1998年提出,是卷积网络的开篇之作。(论文:Gradient-based learning applied to document recognition)。由于 LeNet-5 提出的时间比较早,其网络中使用的一些技术在现在已经很少使用,因此现在我们所使用的 LeNet-5 与原始论文的有所不同。LeNet-5 的结构图CiC_iCi:卷积层;SiS_iSi:下采样层(池化层);FiF_iFi:全连接层对上图中的每层操作及参数进行解释原创 2020-07-03 12:13:22 · 1111 阅读 · 0 评论 -
激活函数
激活函数(Activation Function)激活函数为神经网络模型引入了非线性计算。如果神经网络中没有激活函数,那么神经网络中的每一层的输出都是上层输入的线性函数,因此无论神经网络有多少层,输出都是输入的线性组合,这就是最原始的感知机(Perceptron)。在现实任务中,大多数任务都是非线性的,因此激活函数给神经网络引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,这样神经网络就可以应用到众多的非线性计算任务中。如下图,在神经元中,输入的 inputs 通过加权,求和后,被作用于一个原创 2020-06-20 13:50:59 · 285 阅读 · 0 评论 -
单个神经元
先来看一下单个神经元网络模型:其中 xi 表示输入,wi 和 b 表示参数。图中下方的公式是 1 函数的模型,嗯,就是一个线性模型。那么就这么一个简单的线性模型怎么仿真出人类神经元那么复杂的玩意儿呢?一个线性模型当然满足不了,这不就有了函数 2。函数 2 这类的函数我们常称之为 激活函数 或者 激励函数。那么有人又问了你怎么知道图中那一大堆 wi 和 b 参数到底取值是什么,别急,网络模型...原创 2018-07-06 11:31:42 · 5877 阅读 · 0 评论 -
卷积神经网络一
卷积神经网络是深度学习中最经典的模型之一。它可以解决全连接网络中参数过多的问题,它可以使用很少的权重参数达到全连接网络实现不了的效果。下面我们通过简单的计算,看一看全连接网络的带来的问题。 假设在对MNIST数据集(28x28)进行训练时,使用的网络有两个隐藏层,每层256个节点,输出层10个节点。则训练中所需参数: (权重w参数 28*28*256+256*256+256*...原创 2018-07-12 13:31:07 · 866 阅读 · 0 评论 -
卷积神经网络二
反卷积神经网络中的反卷积是指,通过测量输出和已知输入重构未知输入的过程,其并不具备学习能力,仅仅是用于可视化一个已经训练好的卷积神经网络模型,没有学习的过程。 看一下VGG-16反卷积神经网络的结构,VGG-16是一个深度神经网络模型,其反卷积过程就是将中间数据,按照前面卷积,池化等变化过程,完全相反的做一遍,从而得到类似原输入的数据。反卷积的原理 反卷积可以理解为...原创 2018-07-12 14:33:29 · 592 阅读 · 0 评论 -
卷积神经网络三-----CIFAR数据集
CIFAR也是一堆图片的数据集。在官网 http://www.cs.toronto.edu/~kriz/cifar.html 可以下载,该数据集是已经打包好的文件,分别为python、MATLIB、二进制bin文件包,方便不同的程序读取。不过该文件包在官网下载速度比较慢,可以从下面的链接中获取 https://pan.baidu.com/s/1HNgVRrCdYEuqLwug5kBJ...原创 2018-07-12 15:33:17 · 990 阅读 · 0 评论