全连接 CNN 基础网络总结

pytorch里,无论哪种网络,输出都是一个Tensor张量。

网络设计损失时,是label 和 out相减

输出层常用的激活函数:

     SIGMOiD,二分类

      softmax,多分类时,二分类时,退货为SIGMOD,二者输出都是0-1的数据, softmax输出是概率分布,和为1

      做二分类时,sigmoid输出1个数,softmax因为是个概率分布,所以会输出2个数,即两个神经元

       y=x不激活,输出为坐标时,如果加了激活函数坐标就变化了

 

网络学习时,w和b初始化的时候一般都会设计成阶段正态分布,正态分布的三sheigema码原则,,用截断正态分布

刚好取到梯度最大的地方

 

全连接嵌套其他网络中做数据融合;卷积处理空间问题,比如图片   

 商用项目上会加置信度,用来表示图片上是否有要处理的目标。网络实际是矩阵运算,商用项目中为了减少该运算,会先筛选数据,是否需要去训练坐标iz

 

数字十分类,是分类问题,做了10分类的one-hot编码,最终是拿到一个值(最大概率的下标)来使用

追踪小黄人,是回归问题,标签是四个数,网络设计输出四个值(两个点的坐标),当四个值相近时,就找到小黄人。输出的值都要使用

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 卷积神经网络(Convolutional Neural Networks, CNN)是一种被广泛应用于计算机视觉领域的深度学习模型。它的出现可以追溯到二十世纪80年代,当时Fukushima在其论文《神经网络模型的维数》中提出了一种神经网络模型,这个模型被称为“神经认知机”(Neocognitron),是一种专门用于图像识别的模型。 然而,直到2012年,CNN才真正得到了广泛应用和普及,当年Hinton等人在ImageNet比赛上使用了深度CNN模型AlexNet并取得了极佳的成绩,使得深度学习在计算机视觉领域引起了广泛的关注。之后,越来越多的科学家和工程师开始使用CNN来解决各种图像和视觉相关的问题,如图像分类、目标检测、图像分割等。 随着时间的推移,CNN在结构和性能上也得到了不断的优化和改进,如GoogLeNet、VGGNet、ResNet、Inception等,这些模型在各种计算机视觉任务上都取得了极佳的效果,并且被广泛应用于实际应用中,如自动驾驶、人脸识别、图像搜索等。 ### 回答2: CNN(Convolutional Neural Network)神经网络是一种深度学习模型,最早是由Yann LeCun等人在1980年代末和1990年代初提出的。CNN网络的设计灵感来源于人类视觉系统的结构。它是一种特殊的人工神经网络,主要用于处理和分析具有类似网状结构的数据,例如图像和视频。 CNN的基本思想是通过卷积层、池化层和全连接层来实现特征提取和分类。卷积层通过使用卷积核对输入图像进行卷积操作,以提取图像的局部特征。池化层则用于降低图像的空间维度,减少计算量,同时保留重要的信息。全连接层则用于将经过特征提取和降维的图像数据进行分类。 在CNN网络的早期发展中,LeCun等人提出了LeNet-5模型,它是第一个成功应用于手写数字识别的CNN模型。LeNet-5的提出将CNN带入人们的视野,并在手写字符识别等领域取得了良好的效果。 随后,随着计算机计算能力的不断提升和深度学习的快速发展,CNN网络逐渐引起了人们的广泛关注。在2012年,由于Alex Krizhevsky等人提出的AlexNet模型在ImageNet图像识别竞赛中取得了巨大的成功,使得CNN在计算机视觉领域迅速崛起,并开始逐渐应用于诸如图像分类、物体检测、人脸识别等领域。 自此之后,CNN的研究和应用不断推进,在深度学习领域中占据重要位置。例如,2015年,Szegedy等人提出的GoogLeNet模型在ImageNet竞赛中表现出色,进一步推动了CNN的发展。此外,还有一系列的CNN模型被提出,如VGGNet、ResNet、Inception等,不断刷新着图像识别的准确率。 总的来说,CNN神经网络的背景和历史可以追溯到上世纪80年代末,经过多年的发展和探索,它成为深度学习领域的重要模型,广泛应用于计算机视觉等领域,对人工智能的发展起到了重要的推动作用。 ### 回答3: 卷积神经网络(Convolutional Neural Network,CNN)是一种基于人类视觉系统的结构,用于解决计算机视觉任务的神经网络模型。它的背景和历史可以追溯到上世纪80年代。 在早期的计算机视觉系统中,研究人员使用手工设计的特征提取器来处理图像。然而,这种方法繁琐且不灵活,无法适应不同的图像风格和任务。为了解决这个问题,CNN应运而生。 CNN的雏形可以追溯到1980年代的LeNet-5模型,由Yann LeCun等研究人员提出。该模型在手写数字识别任务中取得了突破性的进展。LeNet-5首次引入了卷积层、池化层和全连接层,并使用反向传播算法进行训练。这一设计极大地减少了输入图像的参数量,大大提高了计算效率。 1998年,LeCun等人在论文中介绍了一个新的算法——反卷积网络(Deconvolutional Network),该算法可以用于图像的分割和重建。这一算法为后来的图像分割和重建任务奠定了基础。 在2000年后,随着图像数据集的快速增长和计算能力的提升,CNN逐渐获得了广泛的重视。2012年,AlexNet模型的提出标志着CNN在计算机视觉领域的大规模应用。AlexNet模型在ImageNet图像分类数据集上取得了惊人的结果,引发了整个深度学习的热潮。 随后,出现了一系列基于CNN的模型,如VGGNet、GoogLeNet和ResNet等。这些模型进一步提升了图像分类、目标检测、语义分割等领域的性能,并推动了计算机视觉的快速发展。 CNN的成功得益于卷积操作的特点,它可以在局部区域上共享权重,识别出图像的局部特征,并通过层层堆叠来提取抽象的语义信息。同时,CNN也受益于深度学习和大规模图像数据集的发展,以及计算机硬件的快速进步。 总之,CNN神经网络是计算机视觉领域的一个重要里程碑,为解决图像识别与处理任务提供了强大的工具,也推动了深度学习的发展。它的背景和历史可以总结为:80年代的LeNet-5模型的诞生,1998年的反卷积网络算法的提出,以及2012年的AlexNet模型的成功。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值