看论文,做笔记系列(1)——Network in Network

重读论文《Network in Network》,发现有几点值得记录的地方,特记录在此!

1.意义

传统的convolution filter 是一个GLM(generalized linear model),其对图像局部区域的抽象能力有限。
使用基于GLM的传统CNN均内在的假设潜在的图像空间线性可分,但实际上可能并非如此。为解决该问题,传统CNN采用了较多的filter(超完备)对input进行卷积,计算开销大。
众所周知,CNN的浅层提取输入的局部特征,在较深层对这些局部特征进行融合以获得全局特征。若能在浅层获得比GLM滤波器更好的局部特征,则能得到更优良的全局特征,NIN应运而生。

2.创新点

(1).Mlpconv结构

这里写图片描述

Mlpconv layer相对于传统的conv layer 增强了局部特征的抽象能力,在传统的conv后接全连接层即可实现。其中,全连接层是通过1x1卷积核来实现的。说得到此,不得不说一下1x1卷积核的作用。

A.通过1x1卷积核实现了Mlpconv结构;

B.卷积核通道的降维或升维,在GoogleNet中得到了很好的说明;

这里写图片描述

右图在左图的基础上增加1x1 convolution模块,通过控制1x1 convolution的个数可实现较左图维数的降低或增加。

C.实现跨通道的信息交互和融合

在阅读其他博客时发现一种说法,1x1 concolution还有一种用处就是实现跨通道的信息交互和融合。怎么说呢,不能说此种说法错误,本人认为其他大小的卷积核也具有这样的作用,并非仅限于1x1 convolution;
在研究Network in Network的结构过程中,对CNN的卷积过程有了新的认识。其实,每个卷积核可看成是三维的,即(width,height,depth),width,height即为卷积核的大小,如1x1,3x3等,depth表示输入通道数。谨以cs231n课程的一张图来表示:

这里写图片描述

(2).Global Average Pooling

论文在最后一层采用了全局平均池化,代替全连接层与softmax相连,不仅大大降低了参数。对每个特征图一整张图片进行全局均值池化,这样每张特征图都可以得到一个输出。这样采用均值池化,连参数都省了,可以大大减小网络,避免过拟合,另一方面它有一个特点,每张特征图相当于一个输出特征,然后这个特征就表示了我们输出类的特征。全局平均池化的含义是其卷积核的大小等于上一层feature map的大小。

group用法

题外话,在研究Mplconv的过程中,发现代码中卷积参数中使用了group参数,故特地查询了其用法,简要记录下。
group默认值为1,就是全连接的卷积层,即卷积层的输出(也即是卷积核的个数)与输入是全连接的,每个卷积核遍历每个输入通道。
如果group为2,假设输入是90x100x100x32, 90是数据批大小, 100x100是图像数据shape,32是通道数,要经过一个3x3x48的卷积核,48为卷积核个数。那么对应要将输入的32个通道分成2个16的通道,将输出的48个通道分成2个24的通道。对输出的2个24的通道,第一个24通道与输入的第一个16通道进行全卷积,第二个24通道与输入的第二个16通道进行全卷积。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spark是一个开源的大数据处理框架,它提供了高效的数据处理能力和易用的API,支持多种数据处理模式,包括批处理、流处理和机器学习等。Spark的核心是分布式计算引擎,它可以在集群中运行,利用多台计算机的计算能力来处理大规模数据。Spark的优势在于其高效的内存计算和强大的数据处理能力,可以在处理大规模数据时提供更快的计算速度和更高的性能。Spark的生态系统也非常丰富,包括Spark SQL、Spark Streaming、MLlib和GraphX等组件,可以满足不同的数据处理需求。 ### 回答2: Spark是一种大规模数据处理引擎,可以较快地处理大数据。Spark并不是单独的一种工具,而是一系列的工具和库的整合。它具备高效的内存计算功能,能够在数秒或数分钟内完成数据处理任务。 Spark的核心是分布式计算引擎,通过将数据分成多个部分进行处理,缩短了计算时间。Spark基于RDD(弹性分布式数据集)进行数据处理,RDD是一种可缓存、可重用和容错的数据结构。RDD抽象了数据分布和分区,提供了简单的API。 Spark的架构包括四个组件:Driver、Cluster manager、Worker、和 Executor。其中Driver是Spark应用程序的主程序,Cluster manager通过Master节点来管理各个Worker节点,Worker节点包含了整个Spark集群的计算资源,Executor执行计算任务。 Spark支持多种编程语言,包括Scala、Java、Python和R。其中Scala是Spark的主要语言,因为它能够将Spark的API最大程度地利用。 除了分布式计算引擎外,Spark还提供了多种库和工具,包括Spark SQL、Spark Streaming、MLlib和GraphX。Spark SQL是一种用于结构化数据处理的库,能够使用SQL语句进行数据查询;Spark Streaming可以实时处理数据流,包括文本和图像等;MLlib是实现了多种机器学习算法的库,包括分类、回归、聚类和协同过滤;GraphX可以用于图计算和图分析领域。 总之,Spark是一种强大的大数据处理引擎,能够通过分布式计算架构实现快速的数据处理。它提供了多种语言支持和众多的库和工具,方便用户处理各类数据。 ### 回答3: Spark是一款开源的、分布式的大数据处理框架,它的出现将大数据处理的速度提升到了一个全新的水平。Spark的特点在于它的内存计算引擎,这使得Spark的运行速度比传统的MapReduce处理速度要快很多,同时也比传统的Hadoop更加灵活。 Spark可以用于处理各种大数据应用场景,包括批处理、交互式查询、实时流处理等等。同时,Spark的生态系统非常丰富,有众多的开源库和工具可以使用,例如:Spark SQL、Spark Streaming、GraphX、MLlib等等。 Spark的运行环境需要一个集群,因为Spark是分布式的,它可以通过在集群中多个节点上并行执行任务来提升处理速度,而且Spark支持多种集群管理和资源调度工具,例如:Apache Mesos、Hadoop YARN、Spark自带的资源调度程序等等。 Spark的编程接口非常灵活,可以使用Scala、Java、Python等多种编程语言来编写Spark程序。无论是使用哪种编程语言,Spark都提供了相应的API和工具,例如:Spark SQL、Spark Streaming等。 总之,Spark是一个非常强大的大数据处理框架,它的出现是对传统的Hadoop框架的一种补充和升级,不仅可以处理海量的数据,而且可以提供更快速的数据处理速度和更强大的数据处理能力。因此,Spark已经成为现代大数据处理和机器学习领域中非常重要的工具之一。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值