深度学习原理及算法
小样x
硕士毕业已工作,论文指导、定制开发、课程设计指导、系统部署、项目讲解等均可私信或私信留联系方式,用心指导
展开
-
【深度学习原理第10篇】EfficientNet原理详解
前言EfficientNet真的超级强大,让我们一起来耐心学习它吧!论文链接:https://arxiv.org/pdf/1905.11946.pdf一、背景介绍EfficientNet是Google在2019年5月提出的网络,在当时表现SOTA,超级强,该论文提出了一种多维度混合的模型放缩方法。compound scaling(混合缩放)是该文最主要的创新点,稍后会详细讲解。作者希望找到一个可以同时兼顾速度与精度的模型放缩方法,而提高模型性能基本从下面三个维度考虑:网络深度、网络宽度、图像分辨率。原创 2020-12-22 21:31:56 · 3796 阅读 · 2 评论 -
【深度学习原理第9篇】DenseNet模型详解
一、背景概述DenseNet是2017年CVPR的最佳论文,它不同于ResNet中的残差结构,也不同于GoogLetNet中的Inception网络结构。DenseNet提出了一种新的提升性能的思路,即作者通过对特征层的极致利用使模型有了更好的性能,并且相比ResNet进一步减少了参数,提高了性能,特征层的极致利用表现在更密集的特征连接,密集连接也是本篇文章的核心。让我们一起来学习它吧。二、DenseNet论文地址:https://arxiv.org/pdf/1608.06993.pdf下图为De原创 2020-12-09 20:33:31 · 3612 阅读 · 1 评论 -
【深度学习原理第8篇】深入解析ResNet网络
前言本篇是对ResNet学习的总结,希望对你有帮助。一、ResNet背景介绍ResNet在2015年被提出,该文章称为Deep Residual Learning for Image Recognition并且该网络在ImageNet比赛分类任务上获得第一名,这个文章一出可以说影响十分巨大,以至于ResNet网络中提出的残差结构在如今应用越来越广泛。那么我们可以先抛出一个问题,为什么ResNet如此好用呢?答:ResNet的核心是残差结构,我们知道网络越深的时候,提取到的不同层次的信息会越多,原创 2020-11-29 09:45:53 · 1062 阅读 · 0 评论 -
【深度学习原理第7篇】GoogLeNet v1-v4详解 + keras实现
前言这是入门CV的第三篇,本文是综合论文解读,在自己理解后记录、总结的。尽量做到通俗易懂,希望文章某部分对你有帮助,如有错误,欢迎评论交流。一、GoogLeNet背景介绍GoogLeNet是谷歌(Google)研究出来的深度网络结构,这里注意是GoogLeNet,中间是大写L,这是这个团队发现刚好两个字母双关,并以此致敬LeNet网络,故这样取名。谈GooLeNet就不得不说说VGGNet,2014年,GoogLeNet和VGG是当年ImageNet挑战赛(ILSVRC14)的前两名,GoogLeN原创 2020-11-27 19:39:54 · 2022 阅读 · 5 评论 -
【深度学习原理第6篇】深入解析VGGNet网络+keras实现
目录前言一、VGG网络模型结构二、VGG16和VGG19网络结构分析2.1 VGG16解析2.2 VGG-19解析代码实现(VGG-16为例)三、VGG相较AlexNet改进详解3.1 小卷积核3.2 小池化核3.3 层数更深特征图更宽3.4 全连接转卷积前言这是入门必备经典网络学习的第二篇,VGGNet由牛津大学的视觉几何组(Visual Geometry Group)和Google DeepMind公司的研究员共同提出,是以解决ImageNet比赛中的1000类图像分类和定位问题而展开的,该网络斩获原创 2020-11-23 19:43:17 · 1133 阅读 · 3 评论 -
【深度学习原理第5篇】深入解析AlexNet网络原理+keras实现
目录前言一、AlexNet网络结构主体代码前言AlexNet网络是在2012年的ImageNet竞赛中取得冠军的一个模型整理后发表的文章。该网络模型的成功,掀起一场深度学习的视觉革命。Alex在当时如此成功原因有以下4点:(1)使用Relu函数作为激活函数:避免过拟合与梯度弥散问题(2)使用Dropout技术:选择性去除非重要神经元、避免过拟合(3)引入MaxPooling下采样技术(压缩):减少网络参数,提高准确率(4)利用双GPU架构:减少训练时间回顾图像分类发展历史,首先就是AlexNe原创 2020-11-22 21:29:46 · 690 阅读 · 0 评论 -
【深度学习原理第4篇】卷积神经网络详解(CNN)
前言思来想去,还是写下CNN原理吧,也是自己回顾一下,做个总结,觉得不错的话,欢迎点赞,收藏。卷积神经网络(Convolutional Neural NetWork)一、卷积神经网络的结构卷积神经网络主要由卷积层、下采样层、全连接层 3种网络构成。。上述三种网络层排列组合可以构建一个完整的卷积神经网络,下图为一个简单卷积神经网络。输入层->卷积层->下采样层->卷积层->下采样层->全连接层->输出层即输入,两个卷积+下采样,再接两个全连接,输出现在我们来原创 2020-11-21 10:43:19 · 2627 阅读 · 0 评论 -
【深度学习原理第3篇】损失函数、代价函数、目标函数与优化函数
前言本文分为两部分:1、损失函数、代价函数、目标函数包括keras中常用损失函数及其使用场景2、优化函数一、损失函数、代价函数、目标函数1、损失函数:衡量预测值与真实值的偏离程度,损失函数就是一个”裁判“,判断函数拟合的效果好不好,评价网络训练的好坏,所以它是一个评价指标。损失函数是针对一个样本的,即一个样本的预测值与其真实值的差距,误差越小,拟合的越好。2、代价函数:针对整个训练集,将每个样本的损失函数求和得到3、目标函数:表示希望被优化的函数,是一个更为通用的术语三者关系:针对整个原创 2020-11-11 11:25:11 · 1153 阅读 · 0 评论 -
【深度学习原理第2篇】常用的几种激活函数
激活函数假设我们只看下图前馈神经网络中圈到的神经元,其他的不看,就可以得到图1效果---------------------------------------------------------- 图1 ---------------------------------------------------------激活函数定义在神经元中,输入的 inputs 通过加权,求和后,还被作用了一个函数,这个函数就是激活函数。激活函数给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数原创 2020-11-11 10:58:30 · 200 阅读 · 0 评论 -
【深度学习原理第1篇】前馈神经网络,感知机,BP神经网络
前馈神经网络(FNN)前馈神经网路是一种单向多层的网络结构,信息从输入层开始,逐层向一个方向传递,即单向传递,一直到输出层结束。前馈的意思就是指传播方向指的是前向。前馈神经网络由三部分组成:输入层(第0层),输出层(最后一层),中间部分称为隐藏层,隐藏层可以是一层,也可以是多层 。FNN如下图所示,其中圆圈是神经元。学习神经网络前向传播与反向传播推导过程必须了解,这是许多网络的基础,推荐下面的up主视频,用案例来讲解底层传播与机理,并做出了推导,跟着推一遍,理解会更深刻,不然后面学习就可能一知半解了原创 2020-11-09 18:06:38 · 6761 阅读 · 0 评论