自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 资源 (4)
  • 收藏
  • 关注

原创 利用pytorch复现resnet对cifar-10进行分类

一、resnet创新点 传统的卷积网络在网络很深的时候,会出现梯度消失或者梯度爆炸的现象而resnet就能很好的解决这个问题。 resnet最为创新的一点是残差结构,它使用了一种连接方式叫做“shortcut connection”,顾名思义,shortcut就是“抄近道”的意思。示意图如下。 它对每层的输入做一个reference(X), 学习形成残差函数, 而不是学习一些没有reference(X)的函数。这种残差函数更容易优化,能使网络层数大大加深。 resnet还有一种结构,用在resn

2021-04-18 22:28:36 933

原创 深谈VGG卷积神经网络

一、VGG的创新点 (一)使用了更小的卷积核 在vgg出现之前,大多数网络比如alexnet用的都是大卷积核提取特征,但是vgg采用堆叠小卷积核来达到大卷积核的方式,最显著的优点有两个: 1、堆叠3*3卷积核在和7*7卷积核达到相同效果时,产生的参数更小,计算如下 一个7*7卷积核的参数量:7*7*C*C=49*C*C 三个3*3卷积核的参数量:3*3*3*C*C=27*C*C 2、由于使用了小卷积核,可以在每一层后加上非线性激活函数,增强了模型的学习能力,增加特征抽象能力。 (二)小池化核

2021-04-10 12:05:07 2234

原创 利用pytorch构建alexnet网络对cifar-10进行分类

文章目录 (一)概述 (二)数据预处理 (三)构建网络 (四)选择优化器 (五)训练测试加保存模型 正文 (一)概述 1、CIFAR-10数据集包含10个类别的60000个32x32彩色图像,每个类别有6000张图像。有50000张训练图像和10000张测试图像。 2、数据集分为五个训练批次和一个测试批次,每个批次具有10000张图像。测试集包含从每个类别中1000张随机选择的图像。剩余的图像按照随机顺序构成5个批次的训练集,每个批次中各类图像的数量不相同,但总训练集中每一类都正好有5000

2021-04-05 14:13:48 1615

原创 关于利用pytorch复现alexnet网络并实现对MNIST数据及分类

一、alexnet网络结构 (一)图解 (二)网络各层参数 1.AlexNet共8层,包括5个卷积层和3个全连接层 2.每一层都使用了Relu函数作为激活函数 3.AlexNet有一个特殊的计算层-LRN层,开辟性的使用了LRN(局部相应归一化层 二、alexnet优点 1.用ReLU得到非线性,用ReLU非线性函数作为激活函数 2.使用dropout的trick在训练期间有选择性的忽略隐藏层神经元,来减缓学习模型的过拟合 3.使用重叠最大池进行池化操作,避免平均池的平均效果 4.使用G

2021-03-28 13:19:42 950

原创 小白逃离卷积神经网络新手村的日子

小白逃离卷积神经网络新手村的日子

2021-03-21 11:00:31 168 1

MNIST手写数字识别数据集.zip

mnist数据集,手写数字识别数据集

2021-03-24

102_flowers_data.rar

102flowers花卉分类的数据集

2021-03-24

labelimg标签工具.zip

windows版本

2021-03-24

猫狗大战数据集.rar

猫狗大战数据集,包含大量猫狗图片

2021-03-24

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除