![](https://img-blog.csdnimg.cn/2021080612254915.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
深度学习
文章平均质量分 94
阅读深度学习经典的网络所做的一些笔记,以及相关的代码仿真
madao10086+
Nothing is more pratical than a good theory.
展开
-
PTB-XL心电信号处理
ECG-Classfier选修了一门模式识别的课程,这篇博客是对本人模式识别课程设计的一个简单的总结,相关的代码已经上传至github,详情参见后文的github链接PTB-XL database首先是数据的说明,这里用到的心电数据来自PTB-XL数据库,以下数据库的说明来自官方网站,详情可以参看PTB-XL详情页。简介在1989年10月至1996年6月的近七年中,使用Schiller AG的设备收集了PTB-XL ECG数据集的基础波形数据。通过从Schiller AG收购原始数据库,将全部使用原创 2021-01-18 17:18:21 · 6977 阅读 · 28 评论 -
DenseNet学习笔记及仿真
DenseNet学习笔记及实现前言之前的一些研究表明了在输入层和输出层之间添加一些跳接可以让网络架构更深,且训练更有效率。例如ResNet[1],解决了深层网络梯度消失的问题,而GoogleNet[2]则是让网络加宽。借鉴这两种思想,让网络中各层之间的信息传递,将所有的层连接起来,这就是DenseNet[3]的基本思想。在传统的卷积神经网络中,第LLL 层就有 LLL 个连接,每一层和其他的层相互连接,所以总共的跳接就有 L(L+1)2\frac{L(L+1)}{2}2L(L+1),如Figure原创 2021-11-28 19:40:19 · 1518 阅读 · 0 评论 -
SeNet学习笔记及仿真
SeNet学习笔记及仿真前言SENet[1]是ImageNet 2017年的冠军模型,自SeNet提出后,ImageNet挑战赛就停止举办了。SENet同之前的ResNet一样,引入了一些技巧,可以在很大程度上降低模型的参数,并且提升模型的运算速度。SENet全称Squeeze-and-Excitation Networks,中文名可以翻译为挤压和激励网络。SENet在ImageNet 2017取得了第一名的成绩,Top-5 error rate降低到了2.251%,官方的模型和代码在github仓库原创 2021-08-18 22:11:56 · 1501 阅读 · 0 评论 -
ResNet学习笔记及仿真
ResNet学习笔记及仿真前言深度残差网络(Deep Residual Network)是cnn机器视觉史上的一件里程碑的事件,在2015年,ResNet在ImageNet和COCO数据集上获得了非常优秀的成绩。如下图所示:ImageNet Classification: “Ultra-deep”152-layer netsImageNet Detection: 16% better than 2ndImageNet Localization: 27% better than 2ndCOCO原创 2021-08-06 12:56:14 · 421 阅读 · 0 评论 -
VGGNet学习笔记及仿真
VGGNet学习笔记及仿真引言VGGNet(Visual Geometry Group)[1]是2014年又一个经典的卷积神经网络,VGGNet的主要的想法是如何设计网络架构的问题,VGGNet在2014年获得了分类第二,定位第一的成绩,而分类第一的成绩由GoogLeNet[2]获得。VGGNet论文笔记VGGNet架构卷积层的输入是一个固定大小的 224 x 224 尺寸的RGB图像。唯一做的预处理就是减去平均的RBG值,在卷积层使用了非常小的感视野大小的过滤器3x3(这是捕捉左/右、上/下原创 2021-08-06 12:44:52 · 316 阅读 · 0 评论 -
GoogLeNet学习笔记
GoogleNet学习笔记前言2014年获得ImageNet挑战赛分类任务第一名的是GoogleNet,同年Vgg获得了定位任务第一名和分类任务第二名的成绩。GoogleNet是Google团队研发的深度网络结构,之所以叫做“GoogleNet”,是为了向“LeNet”致敬[1]。与VGGNet模型相比较,GoogleNet模型的网络深度已经达到了22层,并且在网络结构中引入了Inception单元,从而进一步提升模型整体的性能。虽然深度达到了22层,但大小却比AlexNet和VGG小很多。Googl原创 2021-08-06 12:40:36 · 284 阅读 · 0 评论 -
AlexNet网络学习及仿真
AlexNet网络学习及仿真文章目录AlexNet网络学习及仿真前言AlexNet相关知识1 前言(Introduction)2 数据集(The Dataset)3 网络架构(The Architecture)3.1 ReLU非线性(ReLU Nonlinearity)3.2 在多个GPU上训练(Training on Multiple GPUs)3.3 局部响应归一化(Local Response Normalization)3.4 重叠池(Overlapping Pooling)3.5 总体架构(Ov原创 2021-08-06 12:34:35 · 392 阅读 · 0 评论 -
AlexNet基于MNIST数据集的代码实现
AlexNet基于MNIST数据集的代码实现鉴于原论文中使用的数据集过于庞大,分类过多,目前手头的设备运行是在过于缓慢,折中考虑尝试使用MNIST的数据集实现AlexNetimport torch, torchvisionimport torchvision.transforms as transformsimport torch.nn as nnfrom torch import optimimport matplotlib.pyplot as plt%matplotlib inlinei原创 2021-07-31 19:03:52 · 2388 阅读 · 3 评论 -
LeNet-5网络仿真实现
LeNet-5网络仿真实现LeNet-5网络架构介绍LeNet-5网络架构如下图所示,不包括输入层的话,LeNet-5一共有7层,所有的层都有可以训练的参数(权重).[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Ba9pANES-1626957107386)(https://www.madao33.com/media/LeNet-5网络仿真实现/lenet5.png)]输入的图像是 32×3232\times3232×32 尺寸的点阵图,这比用于训练的数据库中的最大原创 2021-07-22 20:33:00 · 421 阅读 · 0 评论