- 博客(26)
- 收藏
- 关注
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录26)Cifar10~95.92%
本文在调参记录25的基础上,将自适应参数化ReLU中间层的神经元个数,从2个增加到4个,继续测试其在Cifar10数据集上的效果。自适应参数化ReLU的基本原理:Keras程序:#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Tue Apr 14 04:17:45 2020Implemented using TensorFlow 1.10.0 and Keras 2.2.1Minghang Zhao, Shisheng
2020-07-03 08:41:49
2366
2
原创 ResNet+自适应参数化ReLU(调参记录25)Cifar10~95.77%
在之前调参记录的基础上,首先,大幅度削减了自适应参数化ReLU中全连接神经元的个数,想着可以减轻训练的难度,也可以减少过拟合;然后,将Epoch增加到1000个,继续测试ResNet+自适应参数化ReLU激活函数在Cifar10上的效果。自适应参数化ReLU激活函数的基本原理如下:Keras程序:#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Tue Apr 14 04:17:45 2020Implemented usin
2020-06-02 16:21:26
2881
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录24)Cifar10~95.80%
本文在调参记录23的基础上,增加卷积核的个数,最少是64个,最多是256个,继续测试深度残差网络+自适应参数化ReLU激活函数在cifar10数据集上的效果。自适应参数化ReLU激活函数被放在了残差模块的第二个卷积层之后,它的基本原理如下:Keras程序:#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Tue Apr 14 04:17:45 2020Implemented using TensorFlow 1.0.1 an
2020-05-20 21:52:55
2001
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录23)Cifar10~95.47%
本文在调参记录21的基础上,增加卷积核的个数,也就是增加深度神经网络的宽度,继续尝试深度残差网络+自适应参数化ReLU激活函数在Cifar10数据集上的效果。自适应参数化ReLU激活函数的原理如下:Keras程序:#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Tue Apr 14 04:17:45 2020Implemented using TensorFlow 1.0.1 and Keras 2.2.1Mingha
2020-05-19 11:22:01
2177
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录22)Cifar10~95.25%
本文在调参记录21的基础上,将残差模块的个数,从60个增加到120个,测试深度残差网络+自适应参数化ReLU激活函数在Cifar10数据集上的效果。自适应参数化ReLU激活函数的基本原理如下:Keras程序:实验结果:Minghang Zhao, Shisheng Zhong, Xuyun Fu, Baoping Tang, Shaojiang Dong, Michael Pecht, Deep Residual Networks with Adaptively Parametric Re
2020-05-18 16:11:09
1492
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录21)Cifar10~95.12%
本文在调参记录20的基础上,将残差模块的个数,从27个增加到60个,继续测试深度残差网络ResNet+自适应参数化ReLU激活函数在Cifar10数据集上的表现。自适应参数化ReLU函数的原理如下Keras程序如下:#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Tue Apr 14 04:17:45 2020Implemented using TensorFlow 1.0.1 and Keras 2.2.1Mingh
2020-05-17 01:37:56
912
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录20)Cifar10~94.17%
在之前的调参记录18中,是将深度残差网络ResNet中的所有ReLU都替换成了自适应参数化ReLU(Adaptively Parametric ReLU,APReLU)。由于APReLU的输入特征图与输出特征图的尺寸是完全一致的,所以APReLU可以被嵌入到神经网络的任意部分。本文将APReLU放在每个残差模块的第二个卷积层之后。这种结构与Squeeze-and-Excitation Network是非常相似的,其区别在于APReLU额外地包含了非线性变换。同时,迭代次数也从5000个epoch减少到
2020-05-15 08:53:31
1002
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录19)Cifar10~93.96%
本文修改了数据预处理的方式。在原先的代码中,首先通过除以255将每个样本归一化到0和1之间,然后再减去训练样本集的均值,代码如下:x_train = x_train.astype('float32') / 255.x_test = x_test.astype('float32') / 255.x_test = x_test-np.mean(x_train)x_train = x_train...
2020-05-09 08:56:20
2130
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录18)Cifar10~94.28%
本文将残差模块的数量增加到27个。其实之前也这样做过,现在的区别在于,自适应参数化ReLU激活函数中第一个全连接层中的神经元个数设置成了特征通道数量的1/16。自适应参数化ReLU激活函数的基本原理如下:#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Tue Apr 14 04:17:45 2020Implemen...
2020-05-05 07:38:27
4678
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录17)
在调参记录16的基础上,增加了一个残差模块,继续测试其在Cifar10数据集上的效果。自适应参数化ReLU激活函数的基本原理如下:Keras程序:#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Tue Apr 14 04:17:45 2020Implemented using TensorFlow 1.0.1 a...
2020-04-30 15:01:08
1336
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录16)
在调参记录15的基础上,将第一个残差模块的卷积核数量,从16个增加到32个,同时将自适应参数化ReLU激活函数中第一个全连接层的神经元个数改成原先的1/16,继续测试其在Cifar10数据集上的效果。自适应参数化ReLU激活函数的基本原理如下:Keras程序:#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Tue ...
2020-04-30 08:32:06
445
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录15)
在调参记录14里,只有2个残差模块,结果遭遇欠拟合了。这次增加一个残差模块试试。自适应参数化ReLU激活函数的基本原理如下:Keras程序如下:#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Tue Apr 14 04:17:45 2020Implemented using TensorFlow 1.0.1 an...
2020-04-29 21:32:07
467
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录14)
这次再尝试解决过拟合,把残差模块的数量减少到2个,自适应参数化ReLU激活函数里面第一个全连接层的权重数量,减少为之前的1/4,批量大小设置为1000(主要是为了省时间)。自适应参数化ReLU激活函数的基本原理如下:Keras程序如下:#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Tue Apr 14 04:17...
2020-04-29 14:20:40
508
1
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录13)
从以往的调参结果来看,过拟合是最主要的问题。本文在将层数减少,减到9个残差模块,再试一次。
2020-04-29 07:54:27
641
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录12)
本文在调参记录10的基础上,在数据增强部分添加了zoom_range = 0.2,将训练迭代次数增加到5000个epoch,批量大小改成了625,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。Adaptively Parametric ReLU(APReLU)激活函数的原理如下:Keras程序:#!/usr/bin/env...
2020-04-28 21:15:04
2278
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录11)
本文在调参记录10的基础上,将残差模块的数量增加到60个,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。Keras程序如下:#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Tue Apr 14 04:17:45 2020Implemented usi...
2020-04-26 08:05:41
901
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录10)
本文在调参记录9的基础上,在数据增强部分添加了shear_range = 30,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。深度残差网络+自适应参数化ReLU激活函数(调参记录9)https://blog.csdn.net/dangqing1988/article/details/105688144自适应参数化ReLU激活函...
2020-04-24 12:01:42
1777
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录9)Cifar10~93.71%
本文在调参记录6的基础上,继续调整超参数,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。深度残差网络+自适应参数化ReLU激活函数(调参记录6)https://blog.csdn.net/dangqing1988/article/details/105628681在Keras里,Batch Normalization的mom...
2020-04-23 12:07:20
3047
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录8)
续上一篇:深度残差网络+自适应参数化ReLU激活函数(调参记录7)https://blog.csdn.net/dangqing1988/article/details/105670981本文将层数设置得很少,只有两个残差模块,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。Keras代码如下:#!/usr/bin/env ...
2020-04-22 16:37:06
306
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录7)
续上一篇:深度残差网络+自适应参数化ReLU激活函数(调参记录6)https://blog.csdn.net/dangqing1988/article/details/105628681本文冒着过拟合的风险,将卷积核的个数增加成32个、64个和128个,继续测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。APReLU激活函数的基...
2020-04-22 08:51:13
349
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录6)
续上一篇:深度残差网络+自适应参数化ReLU激活函数(调参记录5)https://blog.csdn.net/dangqing1988/article/details/105627351本文继续调整超参数,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。APReLU的基本原理如下图所示:从之前的调参发现,当学习率从0.1降到...
2020-04-21 07:01:50
737
1
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录5)
续上一篇:深度残差网络+自适应参数化ReLU激活函数(调参记录4)https://blog.csdn.net/dangqing1988/article/details/105610584本文继续测试Adaptively Parametric ReLU(APReLU)在Cifar10图像集上的效果,每个残差模块包含两个3×3的卷积层,一共有27个残差模块,卷积核的个数分别是16个、32个和64...
2020-04-20 09:36:30
512
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录4)
续上一篇:深度残差网络+自适应参数化ReLU激活函数(调参记录3)https://blog.csdn.net/dangqing1988/article/details/105601313本文在深度残差网络中采用了自适应参数化ReLU激活函数,继续测试其在Cifar10图像集上的效果。与上一篇不同的是,这次修改了残差模块里面的结构,原先是两个3×3的卷积层,现在改成了1×1→3×3→1×1的瓶...
2020-04-19 22:55:45
1865
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录3)
续上一篇:深度残差网络+自适应参数化ReLU激活函数(调参记录2)https://blog.csdn.net/dangqing1988/article/details/105595917本文继续测试深度残差网络+自适应参数化ReLU激活函数,残差模块仍然是27个,卷积核的个数仍然是8个、16个到32个,迭代次数从1000个epoch减到了200个epoch(主要是为了省时间),继续测试在Ci...
2020-04-19 08:56:15
1681
2
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录2)
续上一篇https://blog.csdn.net/dangqing1988/article/details/105590515本文依然是测试深度残差网络+自适应参数化ReLU激活函数,残差模块的数量增加到了27个,其他保持不变,卷积核的个数依然是8个、16个到32个,继续测试在Cifar10数据集上的效果。其中,自适应参数化ReLU激活函数是Parametric ReLU的一种改进,基本原...
2020-04-18 16:46:55
502
原创 深度残差网络+自适应参数化ReLU激活函数(调参记录1)
本文采用了深度残差网络和自适应参数化ReLU激活函数进行Cifar10的图像分类。自适应参数化ReLU激活函数原本是应用在基于振动信号的故障诊断,是参数化ReLU的一种改进,其基本原理如下图所示。...
2020-04-18 08:53:48
1454
5
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人