![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
计算机视觉
今天开始,作者将会更新自己以前所学的和工作工程经验相关的计算机视觉知识,不为获取成就,只为督促自己精益求精,刻苦专研
【敛芳尊】
这个作者很懒,什么都没留下…
展开
-
经典卷积神经网络
总论在计算机的cv领域,我们需要掌握的就是常见的经典卷积神经网络的cnn架构,这些架构在nLp ,图像分类,分割,目标检测等领域都举有重要作用。从2012年的AlexNet和和 Dropout到2014年的VGG席卷全球再到后面的ResNet奠定了该领域的霸主地位,网络模型越来越深,拟合效果越来越好。但同时网络参数计算量也急速增加不利于技术的广,于是一些轻量级的框架不断出现,例如后面的比如MobileNet系列,ShuffleNet系列,以及ResNext、DenseNet、EfficenceNet等模原创 2020-08-21 15:57:03 · 324 阅读 · 0 评论 -
CNN模型之MobileNet
引言MobileNet–201年谷歌提出的专注于移动端和嵌入式设备的轻量级cnn架构。随着人工智能的发展,cnn架构已经在计算机视觉领域取得了长足的进步。例如在每年的imagenet分类问题上,可以看到为了追求更高的精准度,模型越来越深,模型也越来越复杂,例如残差神经网络–ResNet的层数已经达到了152层。但是在某些情境下,例如嵌入式和移动端设备下,这样庞大的模型复杂的模型是难以落到实际应用的。模型过于庞大,内存要求就非常高,移动端和嵌入式设备明显无法满足。其次,在这些设备场景要求下的延迟要低原创 2020-08-22 18:29:15 · 1723 阅读 · 0 评论 -
深度解析ResNet及其变体
一:前言(问题由来)在讲resnet之前我们需要知道resnet的由来,以及到底在解决什么问题,然后才是如何解决问题,最终才是工业化实现。本篇文章需要一定的resnet基础,新手可以多看看基础再来。1,根据无限逼近定理我们知道,任意两层神经网络可以拟合任何函数,(一层不行,因为会出现非线性函数无法被拟合的情况)通过每层中的每个节点来表示一段函数(特征),然后层数相加,即可得到我们要表达的函数。那么是不是网络深度越高,函数拟合能力越强呢?或者说我们能不能通过简单的叠加网络层数来增加网络深度呢?其实不能,第原创 2020-09-11 20:13:00 · 1534 阅读 · 0 评论 -
cnn之inception-v3模型结构与参数浅析
背景总论 接上篇,在对LeNet有一定理解之后,我们开始谈谈CNN里面另一个经典的模型--inception-v3 笔者在勉强读完原文之后,不得不佩服原作者对cnn研究之深入,其对cnn整体架构,参数的 调优,训练的优化,以及整个模型的优化都提出了很多建设性的意见。值得我们学习。前事不 忘后事之师,我们开始吧!1. 论文背景整个论文的思路主要是为了解决一个问题–如何处理网络更宽更窄带来的问题。(1):参数过多而训练数据不足的时候同意导致过拟合(如何减小参数)(2):当网络越来越深,带来的原创 2020-08-14 17:02:56 · 10063 阅读 · 4 评论 -
CNN-LENET参数计算
cnn之LeNet5模型参数浅谈鄙人最近一直在学习cnn,对于cnn基本流程,工作原理和简单的模型代码都比较熟练了,但是对于经典的cnn模型(如LeNet5,inception3)还是知之甚少。本文就先总结浅谈LeNet,下篇文章再论述Inception-3模型。话不多说,上正文LeNet-5的背景只需要记住LeNet模型是第一个应用于数字识别问题的卷积神经网络模型,在Mnist数据集上,正确率可达到99.2%lenet模型使用tanh和sigmoid来获得非线性输出,一般在池化层之后引入非线性操原创 2020-07-28 22:25:35 · 743 阅读 · 0 评论