20210701 LeNet5

本文回顾了深度学习早期的重要网络结构,从LeNet5开始,介绍了AlexNet如何通过引入ReLu激活函数和分布式训练解决计算问题,再到VGG-16的简洁设计,最后讨论了ResNet的残差块如何解决深度网络的梯度消失问题。
摘要由CSDN通过智能技术生成

过去没有填充,每次处理都会减小图片的大小

过去人们会用Sigmoid(=Logistic)/Tanh,而不会去用ReLu,而且因为过去的运算力不足,所以需要让上一层和这一层的通道数都一样,因此会多出很多放到现在来看不必要的细节

原来的LeNet-5在池化了以后还做了非线性函数处理non-linearity(比如Sigmoid)

AlexNet

→和LeNet-5很像,但是参数多了很多(6000万个参数)

→用了ReLu激活函数

→每个层被拆到不同的GPU上面,然后相互连接,因为当时GPU的处理速度还比较慢

→局部响应归一化层(LRN层)→现在已经不用了

VGG-16

没有很多参数

CONV = 3*3 filter, s=1, same; MAX-POOL = 2*2, s=2

之所以叫VGG-16是因为一共有16个层(包括卷积层和全连接层)

ResNet残差网络

ResNet→Residual Block

LeNet-5神经网络 C源代码,这个写的比较好,可以用gcc编译去跑,结合理论可以对深度学习有更深刻的了解 介绍 根据YANN LECUN的论文《Gradient-based Learning Applied To Document Recognition》设计的LeNet-5神经网络,C语言写成,不依赖任何第三方库。 MNIST手写字符集初代训练识别率97%,多代训练识别率98%。 DEMO main.c文件为MNIST数据集的识别DEMO,直接编译即可运行,训练集60000张,测试集10000张。 项目环境 该项目为VISUAL STUDIO 2015项目,用VISUAL STUDIO 2015 UPDATE1及以上直接打开即可编译。采用ANSI C编写,因此源码无须修改即可在其它平台上编译。 如果因缺少openmp无法编译,请将lenet.c中的#include和#pragma omp parallel for删除掉即可。 API #####批量训练 lenet: LeNet5的权值的指针,LeNet5神经网络的核心 inputs: 要训练的多个图片对应unsigned char二维数组的数组,指向的二维数组的batchSize倍大小内存空间指针。在MNIST测试DEMO中二维数组为28x28,每个二维数组数值分别为对应位置图像像素灰度值 resMat:结果向量矩阵 labels:要训练的多个图片分别对应的标签数组。大小为batchSize batchSize:批量训练输入图像(二维数组)的数量 void TrainBatch(LeNet5 *lenet, image *inputs, const char(*resMat)[OUTPUT],uint8 *labels, int batchSize); #####单个训练 lenet: LeNet5的权值的指针,LeNet5神经网络的核心 input: 要训练的图片对应二维数组 resMat:结果向量矩阵 label: 要训练的图片对应的标签 void Train(LeNet5 *lenet, image input, const char(*resMat)[OUTPUT],uint8 label); #####预测 lenet: LeNet5的权值的指针,LeNet5神经网络的核心 input: 输入的图像的数据 labels: 结果向量矩阵指针 count: 结果向量个数 return 返回值为预测的结果 int Predict(LeNet5 *lenet, image input, const char(*labels)[LAYER6], int count); #####初始化 lenet: LeNet5的权值的指针,LeNet5神经网络的核心
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值