自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 几种不同的深度卷积网络的设计(1)——使用重复元素的网络VGG

前言前边几篇有关卷积网络的博客中介绍了最经典的LeNet网络和AlexNet网络,其主要是将其作为经典的网络模型进行介绍,同时对二者进行了对比。对比发现后者比前者的卷积层多三层,且在卷积核、通道数和构造的顺序上存在很大的不同,但上述二种模型其内部并没有过多的说明如何去构造卷积神经网络,本章以后的几篇分别来写一下使用重复元素的网络(VGG)、网络中的网络(NiN)、含并行连接的网络(GoogLeNet)等较为经典的网络模型及其相关的构造原则与构造方式,并通过代码进行实现(代码参考李沐书籍代码进行调试修改)

2021-07-30 22:06:32 316

原创 深度卷积神经网络(AlexNet)与卷积神经网络(LeNet)的区别及其代码实现(可直接复制运行)

LeNet在小批量样本的处理中表现尚可,但当样本过于复杂时处理起来结果不尽如人意。AlexNet的出现与2012年,该模型对较大批量数据的处理表现不错,该模型与LeNet具有很高的相似性

2021-07-26 18:07:48 4846

原创 卷积神经网络(LeNet)的代码实现及模型预测

LeNet的简要介绍卷积神经网络(LeNet)是1998年提出的,其实质是含有卷积层的一种网络模型。该网络的构成:该网络主要分为卷积层块和全连接层块两个部分。卷积层块的基本单位是“卷积层+最大池化层”,其中卷积层主要用来识别图像的空间模式,后接的最大池化层主要用于降低卷积层对于位置的敏感性。全连接层用于完成最后的分类。本文以教材中最常见的LeNet-5为例进行代码实现及模型预测,该网络模型图如下图所示。LeNet-5网络结构LeNet的代码实现及模型预测模型组成:本文构建的L

2021-07-22 16:01:31 5867 2

原创 使用Sequential函数构造多层感知机(MLP)

一般来说可以用于网络构造的方式有多种,笔者认为使用Sequential函数构造网络比较简单,以此为例进行网络搭建MLP:至少含有一个隐藏层的由全连接层组成的神经网络,且每个隐藏层的输出通过激活函数进行变换实例我们使用Sequential函数来实现构造一个MLP,我们设定我们所要构造的MLP是一个两层的网络,其中输入为X为800个元素,隐藏层有256个单元,输出为3个标签代码实现接下来我们使用Sequential来构造该网络import torchimport numpy as .

2021-07-21 11:32:13 2124

原创 解决Jupter notebook在图的绘制/加载中出现服务器挂掉的问题

问题在使用Jupter notebook时,运行其他代码还好,一旦涉及到图的绘制问题就一直提示服务器似乎挂掉运行下列代码:import torchimport numpy as npimport sysimport d2lzh_pytorch as d2l# 定义一个作图函数def semilogy(x_vals, y_vals, x_label, y_label, x2_vals=None, y2_vals=None, legend=None, figs

2021-07-19 15:32:32 1096 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除