自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(26)
  • 收藏
  • 关注

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录26)Cifar10~95.92%

本文在调参记录25的基础上,将自适应参数化ReLU中间层的神经元个数,从2个增加到4个,继续测试其在Cifar10数据集上的效果。自适应参数化ReLU的基本原理:Keras程序:#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Tue Apr 14 04:17:45 2020Implemented using TensorFlow 1.10.0 and Keras 2.2.1Minghang Zhao, Shisheng

2020-07-03 08:41:49 2366 2

原创 ResNet+自适应参数化ReLU(调参记录25)Cifar10~95.77%

在之前调参记录的基础上,首先,大幅度削减了自适应参数化ReLU中全连接神经元的个数,想着可以减轻训练的难度,也可以减少过拟合;然后,将Epoch增加到1000个,继续测试ResNet+自适应参数化ReLU激活函数在Cifar10上的效果。自适应参数化ReLU激活函数的基本原理如下:Keras程序:#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Tue Apr 14 04:17:45 2020Implemented usin

2020-06-02 16:21:26 2881

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录24)Cifar10~95.80%

本文在调参记录23的基础上,增加卷积核的个数,最少是64个,最多是256个,继续测试深度残差网络+自适应参数化ReLU激活函数在cifar10数据集上的效果。自适应参数化ReLU激活函数被放在了残差模块的第二个卷积层之后,它的基本原理如下:Keras程序:#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Tue Apr 14 04:17:45 2020Implemented using TensorFlow 1.0.1 an

2020-05-20 21:52:55 2001

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录23)Cifar10~95.47%

本文在调参记录21的基础上,增加卷积核的个数,也就是增加深度神经网络的宽度,继续尝试深度残差网络+自适应参数化ReLU激活函数在Cifar10数据集上的效果。自适应参数化ReLU激活函数的原理如下:Keras程序:#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Tue Apr 14 04:17:45 2020Implemented using TensorFlow 1.0.1 and Keras 2.2.1Mingha

2020-05-19 11:22:01 2177

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录22)Cifar10~95.25%

本文在调参记录21的基础上,将残差模块的个数,从60个增加到120个,测试深度残差网络+自适应参数化ReLU激活函数在Cifar10数据集上的效果。自适应参数化ReLU激活函数的基本原理如下:Keras程序:实验结果:Minghang Zhao, Shisheng Zhong, Xuyun Fu, Baoping Tang, Shaojiang Dong, Michael Pecht, Deep Residual Networks with Adaptively Parametric Re

2020-05-18 16:11:09 1492

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录21)Cifar10~95.12%

本文在调参记录20的基础上,将残差模块的个数,从27个增加到60个,继续测试深度残差网络ResNet+自适应参数化ReLU激活函数在Cifar10数据集上的表现。自适应参数化ReLU函数的原理如下Keras程序如下:#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Tue Apr 14 04:17:45 2020Implemented using TensorFlow 1.0.1 and Keras 2.2.1Mingh

2020-05-17 01:37:56 912

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录20)Cifar10~94.17%

在之前的调参记录18中,是将深度残差网络ResNet中的所有ReLU都替换成了自适应参数化ReLU(Adaptively Parametric ReLU,APReLU)。由于APReLU的输入特征图与输出特征图的尺寸是完全一致的,所以APReLU可以被嵌入到神经网络的任意部分。本文将APReLU放在每个残差模块的第二个卷积层之后。这种结构与Squeeze-and-Excitation Network是非常相似的,其区别在于APReLU额外地包含了非线性变换。同时,迭代次数也从5000个epoch减少到

2020-05-15 08:53:31 1002

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录19)Cifar10~93.96%

本文修改了数据预处理的方式。在原先的代码中,首先通过除以255将每个样本归一化到0和1之间,然后再减去训练样本集的均值,代码如下:x_train = x_train.astype('float32') / 255.x_test = x_test.astype('float32') / 255.x_test = x_test-np.mean(x_train)x_train = x_train...

2020-05-09 08:56:20 2130

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录18)Cifar10~94.28%

本文将残差模块的数量增加到27个。其实之前也这样做过,现在的区别在于,自适应参数化ReLU激活函数中第一个全连接层中的神经元个数设置成了特征通道数量的1/16。自适应参数化ReLU激活函数的基本原理如下:#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Tue Apr 14 04:17:45 2020Implemen...

2020-05-05 07:38:27 4678

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录17)

在调参记录16的基础上,增加了一个残差模块,继续测试其在Cifar10数据集上的效果。自适应参数化ReLU激活函数的基本原理如下:Keras程序:#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Tue Apr 14 04:17:45 2020Implemented using TensorFlow 1.0.1 a...

2020-04-30 15:01:08 1336

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录16)

在调参记录15的基础上,将第一个残差模块的卷积核数量,从16个增加到32个,同时将自适应参数化ReLU激活函数中第一个全连接层的神经元个数改成原先的1/16,继续测试其在Cifar10数据集上的效果。自适应参数化ReLU激活函数的基本原理如下:Keras程序:#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Tue ...

2020-04-30 08:32:06 445

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录15)

在调参记录14里,只有2个残差模块,结果遭遇欠拟合了。这次增加一个残差模块试试。自适应参数化ReLU激活函数的基本原理如下:Keras程序如下:#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Tue Apr 14 04:17:45 2020Implemented using TensorFlow 1.0.1 an...

2020-04-29 21:32:07 467

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录14)

这次再尝试解决过拟合,把残差模块的数量减少到2个,自适应参数化ReLU激活函数里面第一个全连接层的权重数量,减少为之前的1/4,批量大小设置为1000(主要是为了省时间)。自适应参数化ReLU激活函数的基本原理如下:Keras程序如下:#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Tue Apr 14 04:17...

2020-04-29 14:20:40 508 1

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录13)

从以往的调参结果来看,过拟合是最主要的问题。本文在将层数减少,减到9个残差模块,再试一次。

2020-04-29 07:54:27 641

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录12)

本文在调参记录10的基础上,在数据增强部分添加了zoom_range = 0.2,将训练迭代次数增加到5000个epoch,批量大小改成了625,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。Adaptively Parametric ReLU(APReLU)激活函数的原理如下:Keras程序:#!/usr/bin/env...

2020-04-28 21:15:04 2278

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录11)

本文在调参记录10的基础上,将残差模块的数量增加到60个,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。Keras程序如下:#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Tue Apr 14 04:17:45 2020Implemented usi...

2020-04-26 08:05:41 901

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录10)

本文在调参记录9的基础上,在数据增强部分添加了shear_range = 30,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。深度残差网络+自适应参数化ReLU激活函数(调参记录9)https://blog.csdn.net/dangqing1988/article/details/105688144自适应参数化ReLU激活函...

2020-04-24 12:01:42 1777

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录9)Cifar10~93.71%

本文在调参记录6的基础上,继续调整超参数,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。深度残差网络+自适应参数化ReLU激活函数(调参记录6)https://blog.csdn.net/dangqing1988/article/details/105628681在Keras里,Batch Normalization的mom...

2020-04-23 12:07:20 3047

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录8)

续上一篇:深度残差网络+自适应参数化ReLU激活函数(调参记录7)https://blog.csdn.net/dangqing1988/article/details/105670981本文将层数设置得很少,只有两个残差模块,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。Keras代码如下:#!/usr/bin/env ...

2020-04-22 16:37:06 306

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录7)

续上一篇:深度残差网络+自适应参数化ReLU激活函数(调参记录6)https://blog.csdn.net/dangqing1988/article/details/105628681本文冒着过拟合的风险,将卷积核的个数增加成32个、64个和128个,继续测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。APReLU激活函数的基...

2020-04-22 08:51:13 349

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录6)

续上一篇:深度残差网络+自适应参数化ReLU激活函数(调参记录5)https://blog.csdn.net/dangqing1988/article/details/105627351本文继续调整超参数,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。APReLU的基本原理如下图所示:从之前的调参发现,当学习率从0.1降到...

2020-04-21 07:01:50 737 1

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录5)

续上一篇:深度残差网络+自适应参数化ReLU激活函数(调参记录4)https://blog.csdn.net/dangqing1988/article/details/105610584本文继续测试Adaptively Parametric ReLU(APReLU)在Cifar10图像集上的效果,每个残差模块包含两个3×3的卷积层,一共有27个残差模块,卷积核的个数分别是16个、32个和64...

2020-04-20 09:36:30 512

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录4)

续上一篇:深度残差网络+自适应参数化ReLU激活函数(调参记录3)https://blog.csdn.net/dangqing1988/article/details/105601313本文在深度残差网络中采用了自适应参数化ReLU激活函数,继续测试其在Cifar10图像集上的效果。与上一篇不同的是,这次修改了残差模块里面的结构,原先是两个3×3的卷积层,现在改成了1×1→3×3→1×1的瓶...

2020-04-19 22:55:45 1865

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录3)

续上一篇:深度残差网络+自适应参数化ReLU激活函数(调参记录2)https://blog.csdn.net/dangqing1988/article/details/105595917本文继续测试深度残差网络+自适应参数化ReLU激活函数,残差模块仍然是27个,卷积核的个数仍然是8个、16个到32个,迭代次数从1000个epoch减到了200个epoch(主要是为了省时间),继续测试在Ci...

2020-04-19 08:56:15 1681 2

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录2)

续上一篇https://blog.csdn.net/dangqing1988/article/details/105590515本文依然是测试深度残差网络+自适应参数化ReLU激活函数,残差模块的数量增加到了27个,其他保持不变,卷积核的个数依然是8个、16个到32个,继续测试在Cifar10数据集上的效果。其中,自适应参数化ReLU激活函数是Parametric ReLU的一种改进,基本原...

2020-04-18 16:46:55 502

原创 深度残差网络+自适应参数化ReLU激活函数(调参记录1)

本文采用了深度残差网络和自适应参数化ReLU激活函数进行Cifar10的图像分类。自适应参数化ReLU激活函数原本是应用在基于振动信号的故障诊断,是参数化ReLU的一种改进,其基本原理如下图所示。...

2020-04-18 08:53:48 1454 5

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除