《基于麻雀搜索算法的深度信念网络的改进与应用》

一篇会议文章~~~,结尾推荐值得可看的同类型文章~~欢迎留言一起讨论!

抽象

深度信念网络(DBN)是深度学习(DL)领域最流行的网络结构之一。它由多个受限玻尔兹曼机(RBM)和一个输出层组成,通过逐层特征提取和BP网络的向后微调,使其具有很强的特征提取和非线性映射能力。然而,它主要受隐藏层中神经元节点数量的影响。神经元太少会导致DBN模型出现欠拟合问题,反之,神经元过多也会导致DBN模型遭受过拟合,因此DBN模型的性能很难直接得到满足,导致其应用存在一些局限性。为此,提出一种基于麻雀搜索算法的改进DBN模型该模型可以克服神经元选择困难的问题通过麻雀搜索算法找到神经网络每层神经节点的最优数量,大大缩短了人工调试时间,实现了优异的诊断性能。对西储数据集的比较表明,与传统的DBN模型相比,本文提出的方法具有更高的精度和更稳定的模型训练。

一 引言

深度学习的流行模型主要是:深度神经网络(DNN),自动编码器(AE),卷积神经网络(CNN),长短期记忆网络(LSTM),深度信念网络(DBN)。虽然DBN 在特征提取方面有很强大的功能,在数据的非线性映射方面具有良好的性能。但在其隐藏层中的神经元是认为设置的,并即使多次改变神经元的数量来保证DBN 模型的性能,也会导致训练时间变长。

因此,本文在传统的DBN添加了麻雀搜索算法,通过算法可以搜索隐藏层中的神经元,并且自动设置DBN 模型每个隐藏层中的神经元的数量这可以很好的提高DBN 模型的准确性,减少认为设置的限制,减少寻找最佳DBN 模型的训练时间

二 传统的DBN

不在赘述,基于结构的训练过程。——预训练和调参。

其中,通过最大化似然函数,RBM可以找到有利于DBN 性能的最佳参数,给定一组训练样本:

RBM的对数似然函数可以表示为:

 采用梯度下降法来更新参数。RBM 的岁数似然函数难以求解,因此很难有效的更新参数,因此采用K步对比散度CD-K进行近似计算更新参数,在本文中,样本的数量取为1,其权重更新如下:

其中<>0表示真实值,<>1表示CD采样一步后RBM的值。

SSA整个的算法流程如下图所示:

利用SSA优化DBN 隐藏层神经元的数量,从而解决了选择DBN模型隐藏层参数和调整模型性能的问题。

流程图如下所示:

 

 实验对象是CWRU轴承数据。

文章的质量一般,类型是智能优化算法优化神经网络用于故障诊断。推荐类似文章:

Detection of gear fault severity based on parameter-optimized deep belief network using sparrow search algorithm - ScienceDirect (ysu.edu.cn)

 这篇文章值得可看!这篇相关的PPT已经发布,欢迎留言!

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值