![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
卷积神经网络
文章平均质量分 94
卷积
geek12138_
这个作者很懒,什么都没留下…
展开
-
DCGAN《Unsupervised representation learning with deep convolutional generative adversarial network》总结
DCGAN来源论文《Unsupervised representation learning with deep convolutional generative adversarial networks》读后总结前言文章主要内容与贡献提出了深层卷积生成对抗网络(Deep Convolutional Generative Adversarial Nets, DCGAN)DCGAN属于无监督学习,但...原创 2019-08-02 11:42:23 · 566 阅读 · 0 评论 -
在MNIST数据集上用Tensorflow实现多层卷积神经网络算法
在MNIST数据集上用Tensorflow实现多层卷积神经网络算法前言需要下载的东西(数据和代码)代码讲解前言MNIST是一个被广泛使用的数据集,科研领域中也时常使用到它。MNIST数据集,是一个在科研界都被广泛使用的数据集,其由Yann LeCun, Courant Institute, NYU、Corinna Cortes, Google Labs, New York和Christoph...原创 2019-08-03 00:27:05 · 554 阅读 · 1 评论 -
在kaggle上的Digit Recognizer(MNIST)比赛中用Tensorflow实现多层卷积神经网络算法
在kaggle上的Digit Recognizer[MNIST]比赛中用Tensorflow实现多层卷积神经网络算法前言需要下载的东西(数据和代码)用于调试参数的代码讲解用于调试参数的代码讲解前言在kaggle竞赛中,有不少给大家练习的入门级别的比赛,分别是:Titanic: Machine Learning from DisasterHouse Prices: Advanced Reg...原创 2019-08-16 00:16:46 · 298 阅读 · 1 评论 -
maxout来源论文《Maxout Networks》读后总结
maxout来源论文《Maxout Networks》读后总结前言文章主要内容与贡献提出了maxout说明了maxout能近似任何函数实验结果前言这是一些对于论文《Maxout Networks》的简单的读后总结,首先先奉上该文章的下载超链接:maxout这篇文章是由D´epartement d’Informatique et de Recherche Op´erationelle, Un...原创 2019-08-31 21:02:25 · 262 阅读 · 0 评论 -
图像风格迁移来源论文《A Neural Algorithm of Artistic Style》读后总结
图像风格迁移来源论文《A Neural Algorithm of Artistic Style》读后总结前言文章主要内容与贡献提出了图像风格迁移损失函数前言这是一些对于论文《A Neural Algorithm of Artistic Style》的简单的读后总结,首先先奉上该文章的下载超链接:图像风格迁移这篇文章是由 University of Tubingen, Germany的人员合...原创 2019-09-15 22:02:36 · 1096 阅读 · 0 评论 -
在MNIST数据集上用Tensorflow实现AlexNet
在MNIST数据集上用Tensorflow实现AlexNet前言需要下载的东西(数据和代码)代码讲解前言MNIST是一个被广泛使用的数据集,科研领域中也时常使用到它。MNIST数据集,是一个在科研界都被广泛使用的数据集,其由Yann LeCun, Courant Institute, NYU、Corinna Cortes, Google Labs, New York和Christopher ...原创 2019-09-05 07:58:14 · 438 阅读 · 1 评论 -
无训练数据压缩网络《Data-Free Learning of Student Networks》读后总结
无训练数据压缩网络《Data-Free Learning of Student Networks》读后总结前言文章主要内容与贡献提出了一个有效的无数据训练的办法有效的组合了GAN和教师-学生网络设计了适合于该模型的总损失函数$L_{Total}$one-hot损失函数$L_{oh}$激活损失函数$L_{a}$生成图像的信息熵损失函数$L_{ie}$对多个数据集和多个网络进行了实验以证明有效性前言...原创 2019-09-17 16:14:17 · 3498 阅读 · 0 评论 -
行为识别I3D+PoTion《PoTion: Pose MoTion Representation for Action Recognition》读后总结
行为识别I3D+PoTion《PoTion: Pose MoTion Representation for Action Recognition》读后总结前言前言这是一些对于论文《PoTion: Pose MoTion Representation for Action Recognition》的简单的读后总结,首先先奉上该文章的下载超链接:点击这里下载论文。这篇文章是由Inria和NAVER...原创 2019-10-20 19:36:05 · 1057 阅读 · 0 评论 -
人体骨骼关键点检测OpenPose《OpenPose: Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields》读后总结
人体骨骼关键点检测OpenPose《OpenPose: Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields》读后总结前言文章主要内容与贡献提出了一种实时方法来检测图像中多个人的2D姿势;基于作者公开发布的内部带注释脚数据集,展示了第一个组合的身体和脚关键点检测器;发布了OpenPose,OpenPose是第一个用于多人2D姿态检测的开源实时系统,包括身体,脚,手和面部关键点。实验结果前言我的博客访问量终于破万了,突然发现原创 2020-05-24 23:35:16 · 5337 阅读 · 7 评论 -
即插即用、压缩加速模型的Ghost模块《GhostNet: More Features from Cheap Operations》读后总结
即插即用、压缩加速模型的Ghost模块《GhostNet: More Features from Cheap Operations》读后总结前言为什么要做这个研究文章主要内容与贡献提出了一种新颖的Ghost模块,可以通过廉价的操作生成更多的特征图。基于一组固有特征图,应用了一系列成本低廉的线性变换来生成许多可以完全揭示固有特征信息的重影特征图可以将提出的Ghost模块用作即插即用组件,以升级现有的卷积神经网络。设计Ghost瓶颈来堆叠Ghost模块,然后可以轻松地建立轻量级的Ghost Net在基准上进行的原创 2020-06-18 00:36:07 · 2687 阅读 · 0 评论 -
LAPGAN来源论文《Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks》读后总结
LAPGAN来源论文《Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks》读后总结前言文章主要内容与贡献提出了LAPGAN(Laplacian Pyramid of Adversarial Networks)实验部分做了人类判别是否是自然图像的实验来说明LAPGAN的优越性其它实验在CIFAR...原创 2019-08-07 06:52:36 · 531 阅读 · 0 评论 -
生成对抗网络(GAN)来源论文《Generative Adversarial Nets》读后总结
生成对抗网络[GAN]来源论文《Generative Adversarial Nets》读后总结前言文章主要内容与贡献提出了生成对抗网络(Generative Adversarial Nets, GAN)实验结果前言这是一些对于论文《Generative Adversarial Nets》的简单的读后总结,首先先奉上该文章的下载超链接:GAN这篇文章是由蒙塞拉大学(Universite de...原创 2019-07-26 19:39:17 · 985 阅读 · 0 评论 -
在kaggle上的Digit Recognizer(MNIST)比赛中用Tensorflow实现多层神经网络算法
@[TOC](在kaggle竞赛上的Digit Recognizer[MNIST]比赛中Tensorflow实现神经网络算法)在kaggle竞赛中,有不少给大家练习的入门级别的比赛,分别是:Titanic: Machine Learning from DisasterHouse Prices: Advanced Regression TechniquesDigit Recognizer...原创 2019-07-25 13:06:16 · 530 阅读 · 1 评论 -
批归一化《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》
批归一化《Batch Normalization: Accelerating Deep Network Training b y Reducing Internal Covariate Shift》读后总结前言文章主要内容与贡献提出了批归一化(Batch Normalization, BN)数值实验前言这是一些对于论文《Batch Normalization: Accelerating Dee...原创 2019-07-05 22:52:14 · 429 阅读 · 0 评论 -
VGGNet来源论文《Very deep convolutional networks for large-scale image recognition》读后总结
VGGNet来源论文《Very deep convolutional networks for large-scale image recognition》读后总结)前言文章主要内容与贡献使用了更深的网络结构使用了更小的卷积滤波器前言这是一些对于论文《Very deep convolutional networks for large-scale image recognition》的简单的读...原创 2019-05-15 20:42:37 · 390 阅读 · 1 评论 -
深度学习爆发点AlexNet来源论文《ImageNet Classification with Deep Convolutional Neural Networks》读后总结
深度学习爆发点AlexNet来源论文《ImageNet Classification with Deep Convolutional Neural Networks》读后总结前言文章主要内容与贡献大量的样本卷积和池化反向传播ReLU激活函数dropout数据增强GPU加速的实现AlexNet网络结构解析前言这是一些对于论文《ImageNet Classification with Deep C...原创 2019-02-23 23:22:01 · 768 阅读 · 1 评论 -
Inception-v2和Inception-v3来源论文《Rethinking the Inception Architecture for Computer Vision》读后总结
Inception-v2和Inception-v3来源论文《Rethinking the Inception Architecture for Computer Vision》读后总结前言文章主要内容更详细的对卷积的分解进行了解释和说明,并且提出了向量化的卷积使用了特殊的正则化设计了升级版的Inception模型分析了低分辨率输入的性能并表示即使是低分辨率的输入也能拥有不输于高分辨率的结果辅助分类...原创 2019-05-26 23:25:00 · 506 阅读 · 1 评论 -
Xception来源论文《Xception: Deep Learning with Depthwise Separable Convolutions》读后总结
Xception来源论文《Xception: Deep Learning with Depthwise Separable Convolutions》读后总结)前言文章主要内容与贡献设计了 Xception 网络探究了不同数据集对网络的影响探究了点(pointwise)卷积后非线性激活函数对深度网络的影响前言这是一些对于论文《Deep Learning with Depthwise Separ...原创 2019-06-18 21:53:22 · 339 阅读 · 1 评论 -
ResNet来源论文《Deep Residual Learning for Image Recognition》读后总结
ResNet来源论文《Deep Residual Learning for Image Recognition》读后总结)前言前言这是一些对于论文《Deep Residual Learning for Image Recognition》的简单的读后总结,首先先奉上该文章的下载超链接:ResNet这篇文章是由 Google Inc.、 University of North Carolina...原创 2019-06-16 14:17:51 · 874 阅读 · 0 评论 -
DenseNet来源论文《Densely Connected Convolutional Networks》读后总结
DenseNet来源论文《Densely Connected Convolutional Networks》读后总结)前言文章主要内容与贡献设计了密集卷积网络(Dense Convolutional Network, DenseNet)使用了瓶颈层(Bottleneck layers)和压缩(Compression)技术瓶颈层(Bottleneck layers)压缩(Compression)技术...原创 2019-06-25 11:25:58 · 1190 阅读 · 0 评论 -
NIN来源论文《Network In Network》读后总结
NIN来源论文《Network In Network》读后总结前言文章主要内容与贡献设计了mlpconv(multilayer perceptron Convolution)层来代替通常的“卷积+激活函数”层用全局均值池化(global average pooling)代替寻常网络最后的全连接层设计了NIN(Network In Network)神经网络数值实验CIFAR-10CIFAR-100S...原创 2019-07-07 23:05:59 · 338 阅读 · 0 评论 -
SENet来源论文《Squeeze-and-Excitation Networks》读后总结
SENet来源论文《Squeeze-and-Excitation Networks》读后总结前言文章主要内容与贡献设计了SE(Squeeze-and-Excitation)模块研究了SE模块与其它网络的可结合性前言这是一些对于论文《Squeeze-and-Excitation Networks》的简单的读后总结,首先先奉上该文章的下载超链接:SENet这篇文章是由中国科学院软件研究所计算机科...原创 2019-06-26 23:06:08 · 910 阅读 · 0 评论 -
深度解说Dropout之《Dropout: A Simple Way to Prevent Neural Networks from Overfitting》读后总结
深度解说Dropout之《Dropout: A Simple Way to Prevent Neural Networks from Overfitting》读后总结前言文章主要内容与贡献详细解释了DropoutDropout神经网络模型描述利用对Dropout进行了深入的说明对特征的影响对稀疏性的影响Dropout的丢失率的影响数据集大小的影响将Dropout应用于线性回归(Linear Reg...原创 2019-07-03 22:15:15 · 2669 阅读 · 0 评论 -
ShuffleNet来源论文《ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices》总结
ShuffleNet来源论文《ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices》读后总结前言文章主要内容与贡献设计了ShuffleNet单元使用了逐点群卷积(pointwise group convolution)和信道混叠逐点群卷积(pointwise group convolut...原创 2019-06-30 11:29:41 · 431 阅读 · 0 评论 -
GoogLeNet来源论文《Going Deeper with Convolutions》读后总结
GoogLeNet来源论文《Going Deeper with Convolutions》读后总结)前言文章主要内容与贡献设计了 Inception 模块使用了更小的卷积滤波器使用了更深的网络结构且设计了具有独创性的网络结构使用了比AlexNet更为激进的图片修剪技术(即数据增强)前言这是一些对于论文《Going Deeper with Convolutions》的简单的读后总结,首先先奉上该...原创 2019-05-18 22:09:11 · 369 阅读 · 0 评论