自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 【动手复现经典模型】GoogLeNet

在 Inception 中由四条并行路径组成, 前三条路径使用窗口大小分别为 1x1, 3x3 和 5x5 的卷积层, 从不同的空间大小中提取信息. 中间两条路径在输入上执行 1x1 卷积, 以减少通道数, 从而降低模型的复杂性. 第四条路使用 3x3 最大池化层, 然后使用 1x1 的卷积层改变通道数. 这四条路都使用合适的填充来使得输入与输出的高和宽一致, 最后将每条线路的输出在通道维度上连结, 构成 Inception 块的输出. 超参数一般是每层的输出通道数。玩梗 or 致敬LeNet🤣。

2023-12-05 20:25:18 1000

原创 【动手复现经典模型】NiN

NiN 的想法是,在每个像素位置用一个全连接层,将权重连接到每个空间位置,可以视为 1 x1 卷积,或作为在每个像素位置上独立作用的全连接层。NiN 从一个普通的卷积层开始,后面是两个 1x1 卷积层,这两个 1 x1 卷积层充当带有 ReLU 激活函数的逐像素全连接层,第一层的卷积窗口形状通常由用户设置。NiN 完全取消了全连接层,使用了一个 NiN 块,其输出通道等于标签类别的数量,最后放一个全局平均池化层(每个通道算出一个平均值),经过 softmax 生成一个对数概率。

2023-12-05 20:08:50 404

原创 【动手复现经典模型】VGG

原始的 VGG 网络有五个卷积块, 其中前两个块中各有一个卷积层, 后三个块中包含两个卷积层, 第一个模块中有 64 个输出通道, 后续模块将输出通道翻倍, 直到达到 512, 该网络使用了 8 个卷积和 3 个全连接层, 也称为 VGG-11。这里用到的数据集是FashionMNIST,但是做了一些小处理,将原来28x28的图片放大到了224x224,这是因为AlexNet用在ImageNet数据集上的,仅为了简单复现,不需要用到ImageNet数据集。

2023-12-04 21:14:34 497

原创 【动手复现经典模型】AlexNet

AlexNet 采用了 Dropout 来控制全连接层的复杂度,而 LeNet 只采用了权重衰减(正则化)同时 AlexNet 还采用了大量的图像增强数据,如翻转、裁切和变色等,使得模型更加健壮,更大的样本量减少了过拟合。这里用到的数据集是FashionMNIST,但是做了一些小处理,将原来28x28的图片放大到了224x224,这是因为AlexNet用在ImageNet数据集上的,仅为了简单复现,不需要用到ImageNet数据集。ReLU 激活函数计算简单,且训练更加容易。

2023-12-04 08:42:28 397

原创 打印神经网络各层的输出形状

在学习神经网络的时候,总是会出现mat1 和 mat2 不能相乘的问题,其实就是神经网络的某一层的输入和上一层的输出不对应,那如何在定义好网络结构之后进行检查呢?

2023-12-03 09:13:24 441 1

原创 吴恩达机器学习——学习笔记

对吴恩达机器学习视频的整理笔记

2023-11-14 23:03:34 265 2

原创 生成对抗网络——dataset对文件进行读入

生成对抗网络的前驱工作——读入

2022-09-01 17:00:19 660 1

原创 【无标题】

poj_3414_Pots

2022-08-10 09:48:29 79

原创 Find The Multiple

poj_1426 发现倍数问题

2022-08-09 16:00:03 204

原创 利用生成对抗网络(GAN)实现自建数据集的图像生成

从建立数据集到保存模型以及检测生成效果,全部包含在内……

2022-07-29 20:34:59 7644 42

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除