CNN学习简要总结

CNN学习简要总结


今天学习了一下卷积神经网络(CNN)的基础知识,简要总结一下学习到的内容

CNN网络架构一般是通过卷积层不断抽取特征,然后接全连接层

那么如何得到卷积层,是通过层与卷积核(Filter)进行卷积计算。卷积类似于向量内积,将卷积核的每一维与该层内对应维数据相乘相加,步长(stride)决定每次卷积计算完毕后,卷积核移动多少个数据单位,也决定卷积得到的下一个特征层的大小,如果想让特征图与原始输入的大小一致,就要在卷积之前在原始输入的四周填充数据,常见填充0

举一个简单的例子,方便理解原始输入——卷积核卷积——特征图大小的关系

5 * 5图片经过3 * 3卷积核(步长stride为2)得到2 * 2特征图(feature map)
因为原始输入可能有多个channel,所以卷积核也可以有多个channel
在这里插入图片描述

卷积核(Filter,也称为Convolution kernels),可以具体自己设计,不同的卷积核具有不同的作用,典型两种:

  1. vertical line filter中间列为1,周围列为0,用来寻找原始图片在垂直方向变化的规律
  2. Horizontal line filter中间行为1,周围行为0,用来寻找原始图片在水平方向变化的规律

使用不同的卷积核去对原始输入进行卷积,得到不同的特征图,相当于从不同的视角去审视图片,得到不同的结果

CNN是很经典也很重要的神经网络,在图像、视频处理等领域使用的很多,可以说是深度学习业人士必须要学习的,关于CNN的知识以后还要更深入地研究学习。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 卷积神经网络(Convolutional Neural Networks, CNN)是一种被广泛应用于计算机视觉领域的深度学习模型。它的出现可以追溯到二十世纪80年代,当时Fukushima在其论文《神经网络模型的维数》中提出了一种神经网络模型,这个模型被称为“神经认知机”(Neocognitron),是一种专门用于图像识别的模型。 然而,直到2012年,CNN才真正得到了广泛应用和普及,当年Hinton等人在ImageNet比赛上使用了深度CNN模型AlexNet并取得了极佳的成绩,使得深度学习在计算机视觉领域引起了广泛的关注。之后,越来越多的科学家和工程师开始使用CNN来解决各种图像和视觉相关的问题,如图像分类、目标检测、图像分割等。 随着时间的推移,CNN在结构和性能上也得到了不断的优化和改进,如GoogLeNet、VGGNet、ResNet、Inception等,这些模型在各种计算机视觉任务上都取得了极佳的效果,并且被广泛应用于实际应用中,如自动驾驶、人脸识别、图像搜索等。 ### 回答2: CNN(Convolutional Neural Network)神经网络是一种深度学习模型,最早是由Yann LeCun等人在1980年代末和1990年代初提出的。CNN网络的设计灵感来源于人类视觉系统的结构。它是一种特殊的人工神经网络,主要用于处理和分析具有类似网状结构的数据,例如图像和视频。 CNN的基本思想是通过卷积层、池化层和全连接层来实现特征提取和分类。卷积层通过使用卷积核对输入图像进行卷积操作,以提取图像的局部特征。池化层则用于降低图像的空间维度,减少计算量,同时保留重要的信息。全连接层则用于将经过特征提取和降维的图像数据进行分类。 在CNN网络的早期发展中,LeCun等人提出了LeNet-5模型,它是第一个成功应用于手写数字识别的CNN模型。LeNet-5的提出将CNN带入人们的视野,并在手写字符识别等领域取得了良好的效果。 随后,随着计算机计算能力的不断提升和深度学习的快速发展,CNN网络逐渐引起了人们的广泛关注。在2012年,由于Alex Krizhevsky等人提出的AlexNet模型在ImageNet图像识别竞赛中取得了巨大的成功,使得CNN在计算机视觉领域迅速崛起,并开始逐渐应用于诸如图像分类、物体检测、人脸识别等领域。 自此之后,CNN的研究和应用不断推进,在深度学习领域中占据重要位置。例如,2015年,Szegedy等人提出的GoogLeNet模型在ImageNet竞赛中表现出色,进一步推动了CNN的发展。此外,还有一系列的CNN模型被提出,如VGGNet、ResNet、Inception等,不断刷新着图像识别的准确率。 总的来说,CNN神经网络的背景和历史可以追溯到上世纪80年代末,经过多年的发展和探索,它成为深度学习领域的重要模型,广泛应用于计算机视觉等领域,对人工智能的发展起到了重要的推动作用。 ### 回答3: 卷积神经网络(Convolutional Neural Network,CNN)是一种基于人类视觉系统的结构,用于解决计算机视觉任务的神经网络模型。它的背景和历史可以追溯到上世纪80年代。 在早期的计算机视觉系统中,研究人员使用手工设计的特征提取器来处理图像。然而,这种方法繁琐且不灵活,无法适应不同的图像风格和任务。为了解决这个问题,CNN应运而生。 CNN的雏形可以追溯到1980年代的LeNet-5模型,由Yann LeCun等研究人员提出。该模型在手写数字识别任务中取得了突破性的进展。LeNet-5首次引入了卷积层、池化层和全连接层,并使用反向传播算法进行训练。这一设计极大地减少了输入图像的参数量,大大提高了计算效率。 1998年,LeCun等人在论文中介绍了一个新的算法——反卷积网络(Deconvolutional Network),该算法可以用于图像的分割和重建。这一算法为后来的图像分割和重建任务奠定了基础。 在2000年后,随着图像数据集的快速增长和计算能力的提升,CNN逐渐获得了广泛的重视。2012年,AlexNet模型的提出标志着CNN在计算机视觉领域的大规模应用。AlexNet模型在ImageNet图像分类数据集上取得了惊人的结果,引发了整个深度学习的热潮。 随后,出现了一系列基于CNN的模型,如VGGNet、GoogLeNet和ResNet等。这些模型进一步提升了图像分类、目标检测、语义分割等领域的性能,并推动了计算机视觉的快速发展。 CNN的成功得益于卷积操作的特点,它可以在局部区域上共享权重,识别出图像的局部特征,并通过层层堆叠来提取抽象的语义信息。同时,CNN也受益于深度学习和大规模图像数据集的发展,以及计算机硬件的快速进步。 总之,CNN神经网络是计算机视觉领域的一个重要里程碑,为解决图像识别与处理任务提供了强大的工具,也推动了深度学习的发展。它的背景和历史可以总结为:80年代的LeNet-5模型的诞生,1998年的反卷积网络算法的提出,以及2012年的AlexNet模型的成功。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值