自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 DenseNet:比ResNet更优的CNN模型

前言在计算机视觉领域, 卷积神经网络已经成为最主流的方法, 比如GoogleNet, VGG-19, Incepetion等模型。CNN史上的一个里程碑事件是ResNet模型的出现, ResNet可以训练出更深的CNN模型,从而实现更高的准确度。ResNet模型的核心是通过建立前面层与后面层之间的‘短路连接’, 这样有助于训练过程中梯度的反向传播,从而能训练出更深的CNN网络。DenseNet网络的思想基本与ResNet一致,但是它建立的是前面所有层与后面层的密集连接。DenseNet的另一大特色是通过特

2020-06-13 00:31:31 514

原创 .npy文件格式

深度学习–迁移学习在使用训练好的模型时,其中有一种保存的模型文件格式叫.npy。打开方式·实现代码:import numpy as nptest=np.load('./bvlc_alexnet.npy',encoding = "latin1") #加载文件doc = open('1.txt', 'a') #打开一个存储文件,并依次写入print(test, file=doc) #将打印内容写入文件中模型文件(.npy)刨析:import numpy as npfrom numpy

2020-06-10 13:22:05 4967

原创 VGG分类模型的分析与总结

论文名称为:“Very Deep Convolutional Networks For Large-Scale Image Recognition”随着超大规模图像数据集如imageNet,和高性能计算机系统如GPUs和大规模分布式集群产生,基于卷积神经网络的图像分类,定位与检测越来越强大。先前的AlexNet网络受限于当时的GPU等计算机系统性能的影响而无法训练更深更大的网络,使得分类正确率不高。在VGG模型中,基本沿用了AlexNet模型架构, 但是比alexnet更深, 且使用了神经网络的集成

2020-06-07 11:57:20 2331

原创 VGG16和VGG19的理解

VGG卷积神经网络是由牛津大学在2014年提出来的模型,当这个模型被提出来时, 由于它的简洁性和实用性,马上成为了当时最流行的卷进神经网络模型。它在图像分类和目标检测任务中都表现出非常好的效果。它主要的贡献是展示出网络的深度是算法优良性的关键部分。VGG16的网络结构非常一致,从头到尾全部使用的使用的是3x3的卷积核2x2的pooling.VGG不好的一点是它耗费更多的计算资源, 并且使用了更多的参数,导致更多的内存占用。其中绝大多数的参数都是来自于第一个全连接层。目前使用比较多的网络结构主要有Res

2020-06-07 00:34:37 10196

原创 关于tensorflow的官方格式TFrecords

tfrecords文件生成与读取tfrecords的文件生成(存储)tfreocrds数据将原始图像数据和标签数据以二进制格式存储。存储内容以如下形式存储:```pythonexample = tf.train.Example(features = tf.train.Feayures(feature = {‘label’:tf.train.Feature(int64_list = tf.train.Int64List(value = [label])),‘width’:tf.train.Feat

2020-06-05 00:36:26 186

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除