input自适应_一种Dynamic ReLU:自适应参数化ReLU激活函数(调参记录15)

bc3de2d23b6d1e81ca08e8a2586e6c6a.png

自适应参数化ReLU,就是一种动态ReLU(Dynamic ReLU)。该文章在2019年5月投稿至IEEE Trans. on Industrial Electronics,2020年1月录用,2020年2月在IEEE发布。

在调参记录14里,只有2个残差模块,结果遭遇欠拟合了。这次增加一个残差模块试试。

自适应参数化ReLU激活函数的基本原理如下:

d7f71513f1907370605e810944a1deac.png
自适应参数化ReLU(一种动态ReLU,Dynamic ReLU)

Keras程序如下:

#!/usr/bin/env python3

实验结果如下:

Epoch 2575/5000
10s 197ms/step - loss: 0.3505 - acc: 0.9039 - val_loss: 0.4548 - val_acc: 0.8745
Epoch 2576/5000
10s 198ms/step - loss: 0.3571 - acc: 0.9003 - val_loss: 0.4483 - val_acc: 0.8732
Epoch 2577/5000
10s 194ms/step - loss: 0.3536 - acc: 0.9033 - val_loss: 0.4547 - val_acc: 0.8725
Epoch 2578/5000
10s 196ms/step - loss: 0.3514 - acc: 0.9033 - val_loss: 0.4429 - val_acc: 0.8766

程序还没跑完,似乎也没必要跑完了。

训练集上还没拟合好,测试集准确率已经低于训练集准确率大约2.5%了。这是同时存在欠拟合和过拟合呀!

Minghang Zhao, Shisheng Zhong, Xuyun Fu, Baoping Tang, Shaojiang Dong, Michael Pecht, Deep Residual Networks with Adaptively Parametric Rectifier Linear Units for Fault Diagnosis, IEEE Transactions on Industrial Electronics, 2020, DOI: 10.1109/TIE.2020.2972458

Deep Residual Networks with Adaptively Parametric Rectifier Linear Units for Fault Diagnosis​ieeexplore.ieee.org

From

深度残差网络+自适应参数化ReLU激活函数(调参记录15)_人工智能_dangqing1988的博客-CSDN博客​blog.csdn.net
28f55118ec3cb4c8e8eef39e81c81617.png
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值