EfficientNet文章分析的重点提取

EfficientNet是一种创新的CNN模型缩放方法,通过复合系数统一缩放网络宽度、深度和分辨率,实现更高精度和效率。与传统方法相比,此方法在多个数据集上展现出卓越性能,有望成为未来计算机视觉任务的基础。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

传统增加模型精度的方法:

传统的模型缩放实践是

缺点:

方法:

用一系列 固定尺度 缩放系数来统一缩放网络维度。

步骤:

·注意:

模型扩展的有效性在很大程度上依赖于baseline网络。

参考:

EfficientNet-可能是迄今为止最好的CNN网络 - 知乎

【一看就懂】EfficientNet详解。凭什么EfficientNet号称当今最强? - 知乎

细品EfficientNet - 知乎

https://arxiv.org/abs/1512.03385


传统增加模型精度的方法:

  1. ResNet[1]可以通过增加层数将 ResNet-18扩展到 ResNet-200
  2. GPipe[2] 通过将 CNN baseline扩展4倍,在 ImageNet[3]上实现了84.3% 的准确率。 

传统的模型缩放实践是

  1. 任意增加 CNN 的深度
  2. 任意增加 CNN 的宽度
  3. 使用更大的输入图像分辨率

缺点:

需要长时间的手动调优,并且仍然会经常产生次优的性能。

 

一篇ICML文章[4]提出了一个更有原则性的方法来扩大 CNN 的规模,从而可以获得更好的准确性和效率。

该论文提出了一种新的模型缩放方法,它使用一个简单而高效的复合系数来以更结构化的方式放大 CNNs。

方法:

用一系列 固定尺度 缩放系数来统一缩放网络维度。

和传统的区别:不像传统的方法那样 任意缩放网络维度,如宽度,深度和分辨率。

 通过使用这种新颖的缩放方法和 AutoML[5] 技术,作者将这种模型称为 EfficientNets ,它具有最高达10倍的效率(更小、更快)。

作者发现:

根据可用资源平衡网络的所有维度ーー宽度、深度和图像分辨率ーー可以最大限度地提高整体性能。

步骤:

第一步:

 网格搜索,找到在固定资源约束下基线网络的不同维度(缩放)之间的关系。(这决定了上面提到的每个维度的适当比例系数。)

然后应用这些系数扩大基线网络,以达到期望的模型大小或资源要求。

与传统的缩放方法相比,  这种复合缩放方法不断提高模型的精度和效率,可用于扩展现有的模型,如 mobileet (+ 1.4% 的图像集精度)和 ResNet (+ 0.7%)。

·注意:

模型扩展的有效性在很大程度上依赖于baseline网络

 

 

baseline网络:EfficientNet-B0

模型扩展的有效性在很大程度上依赖于baseline网络。为了进一步提高性能,作者还开发了一个新的基线网络,通过使用 AutoML MNAS 框架执行神经结构搜索,优化了准确性和效率。 最终的架构使用移动反向bottleneck卷积(MBConv) ,类似于 mobileenetv2和 MnasNet。

 

最终性能

作者将该效率网络与 ImageNet 上其他现有的 cnn 进行了比较。 一般来说,高效网络模型比现有的 cnn 具有更高的精度和更高的效率,减少了参数大小和 FLOPS 数量级。 在高精度体系中, EfficientNet-B7在 imagenet 上的精度达到了最高水平的84.4% ,而在 CPU 使用方面比以前的 Gpipe 小8.4倍,快6.1倍。 与广泛使用的 ResNet-50相比,作者提出的 net-b4使用了类似的 FLOPS,同时将准确率从 ResNet-50的76.3% 提高到82.6% (+ 6.3%)。

尽管 EfficientNets 在 ImageNet 上表现良好,但为了更有用,它们也应该转移到其他数据集上。 为了评估这一点,作者在八个广泛使用的学习数据集上测试了 EfficientNets。 在8个数据集中,有5个数据集的精度达到了最高水平,比如 CIFAR-100(91.7%)和 Flowers (98.8%) ,而且参数减少了5个数量级(最多减少了21个参数) ,这表明该网络也能很好地传输数据。

通过对模型效率的显著改进,预计 EfficientNets 可能成为未来计算机视觉任务的新基础。 作者开源了EfficientNet 网络模型[6],大家可以在这里找到更多信息。

参考:

EfficientNet-可能是迄今为止最好的CNN网络 - 知乎

【一看就懂】EfficientNet详解。凭什么EfficientNet号称当今最强? - 知乎

细品EfficientNet - 知乎

https://arxiv.org/abs/1512.03385

EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks

  1. ^https://arxiv.org/pdf/1811.06965.pdf
  2. ^http://www.image-net.org/
  3. ^https://arxiv.org/abs/1905.11946
  4. ^https://arxiv.org/abs/1810.13306
  5. ^https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet

 

 

后续:

【一看就懂】EfficientNet详解。凭什么EfficientNet号称当今最强? - 知乎

上文解毒:

这么多 圈圈 是啥意思呢?是 Hadamard乘积 ,

表示对应位置元素相乘, 

神经网络里的 Hadamard乘积 参考这篇:机器学习之路三:卷积神经网络_人工智能_W_H_M_2018的博客-CSDN博客

 

### 使用EfficientNet模型提取图像的颜色特征 为了使用EfficientNet模型来提取图像的颜色特征,可以采用预训练的EfficientNet模型作为基础架构,并对其进行微调或直接用于特征提取。由于EfficientNet系列模型通过平衡网络的深度、宽度和分辨率,在资源限制下实现了高效的特征提取[^1]。 具体操作如下: #### 加载预训练模型并移除顶层分类器 首先,加载不带顶部全连接层的预训练EfficientNet模型,这允许获取更通用的特征表示而不是特定于原始训练任务的输出。 ```python from tensorflow.keras.applications import EfficientNetB3 base_model = EfficientNetB3(weights='imagenet', include_top=False, input_shape=(299, 299, 3)) ``` #### 图像预处理 对于输入到EfficientNet中的每张图片,都需要按照ImageNet数据集的标准进行标准化处理,即调整大小至指定尺寸(如299x299),并将像素值转换成浮点数范围内的数值形式。 ```python import numpy as np from tensorflow.keras.preprocessing.image import img_to_array, load_img from tensorflow.keras.applications.efficientnet import preprocess_input def prepare_image(file_path): image = load_img(file_path, target_size=(299, 299)) image = img_to_array(image) image = np.expand_dims(image, axis=0) image = preprocess_input(image) return image ``` #### 提取颜色特征 一旦准备好了待分析的彩色图像,就可以将其传递给去掉顶端分类器后的EfficientNet模型以获得中间层激活值——这些就是所要寻找的颜色及其他视觉特性编码向量。 ```python features = base_model.predict(prepare_image('path/to/your/image.jpg')) color_features = features.flatten() # 将多维数组展平为一维向量以便后续处理 print(color_features.shape) ``` 上述过程展示了如何基于EfficientNet框架有效捕捉图像内部蕴含的颜色信息以及其他重要的空间模式[^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

往事如yan

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值