激活函数也能优化?

前面介绍了几篇使用进化算法优化神经网络结构和初始化参数的问题,今天给大家简单介绍一篇使用进化算法不仅优化网络参数还优化了激活函数的问题,对的,没有看错,是激活函数。

Cui P , Shabash B , Wiese K C . EvoDNN - An Evolutionary Deep Neural Network with Heterogeneous Activation Functions[C]// 2019 IEEE Congress on Evolutionary Computation (CEC). IEEE, 2019.

文章的出发点是这样的,现在的大多数网络中每个神经元的激活函数是一样的,但是激活函数也会对预测效果产生一定的影响,但是很少有这样的工作。因此作者即优化了网络的参数也优化了激活函数。

在这里插入图片描述
上图表示一个网络结构,可以看出,隐藏层的神经元中使用了不同的激活函数。

用Evolutionary Algorithm优化Deep Learning的问题,无非两个关键点:个体编码和适应度评价。
个体编码:文中作者对个体的编码包含了3个部分权重( W W W)、偏置( b b b)和每个神经元上的激活函数。权重和偏置就是一堆实数,激活函数部分使用函数的名字表示,作者选取了如下几种激活函数。在交叉操作中,权重和偏置使用SBX,激活函数部分使用单点交叉。变异操作中,激活函数部分随机选取。值得注意的是作者只是优化了参数,并没有优化网络结构,因此个体的编码长度是一样的。
在这里插入图片描述
函数评价:不同参数的网络在数据集上进行训练,使用损失函数的值评价不同的个体。

实验结果:
在这里插入图片描述在这里插入图片描述从实验结果看,文中所优化的网络EvoDNN的效果在多数情况下要好于基于梯度优化的网络。
但是这种优势是由参数引起的还是由不同的激活函数引起的文中并没有分析。另外,激活函数对网络分类效果的影响有多大文章也没分析。
总结来看,优化激活函数还是比较鸡肋的操作。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值