ImageNet 近几年模型汇总

ImageNet Large-ScaleVisual Recognition Challenge (ILSVRC)用到的模型

1.2012年,Hinton的学生Alex Krizhevsky提出了深度卷积神经网络模型AlexNet
2.2014年,牛津大学计算机视觉几何组Karen Simonyan和Google DeepMind公司的研究员Andrew Zisserman一起研发的深度卷积神经网络VGG
3.2014年,Google Inception Net,那场比赛中的Inception Net称为Inception V1,它有22层深,比AlexNet的8层和VGGNet的19层还要更深。
4.2015年,微软研究院的Kaiming He等4名华人提出残差神经网络Residual Neural Network(ResNet)

未完待续……..

参考文章链接:
http://www.infoq.com/cn/articles/cnn-and-imagenet-champion-model-analysis
https://blog.csdn.net/amds123/article/details/70232650
http://www.17bianji.com/lsqh/34972_4.html
https://blog.csdn.net/xbinworld/article/details/45619685

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
利用ImageNet预训练分类模型初始化前置卷积是一种常用的计算机视觉任务中的技术。ImageNet是一个庞大的图像数据集,包含了数百个高分辨率图像和不同类别的标签。通过对这个数据集进行深度学习模型的训练,可以得到一个能够对图像进行分类的模型。 在计算机视觉任务中,卷积神经网络(CNN)的前置卷积通常是整个网络中最底层的一部分,用于提取图像的低级特征。然而,如果直接从零开始训练前置卷积,可能需要大量的数据和计算资源。这就是为什么利用ImageNet预训练分类模型初始化前置卷积的原因。 通过利用ImageNet预训练分类模型对前置卷积进行初始化,可以将已有模型中学习到的特征应用到当前任务中。这意味着初学者可以通过利用已有的模型,避免从头开始训练网络,并且能够更快地得到准确的结果。 另外,ImageNet预训练分类模型已经通过大规模的图像数据集进行了训练,具有良好的泛化能力和较高的准确率。因此,通过利用ImageNet预训练分类模型的参数初始化前置卷积,可以为当前任务提供一个更好的初始状态,加快网络的收敛速度并提高网络性能。 最后,利用Imagenet预训练分类模型初始化前置卷积还可以实现迁移学习。通过将已经训练好的模型在其他任务中进行微调,可以减少训练时间和计算成本,并且在新的任务上取得更好的效果。 综上所述,利用Imagenet预训练分类模型初始化前置卷积可以提高网络的训练效率和性能,同时减少了训练时间和计算资源的消耗。这是一种十分有效的计算机视觉任务中常用的技术方法。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值