- 博客(2736)
- 收藏
- 关注
原创 《智能优化算法与MATLAB编程实践》2023出版啦
第12章重点介绍智能优化算法的评价指标体系,选取部分测试函数和文中算法进行测试与分析,并给出完整MATLAB代码,供读者参考。《智能优化算法与MATLAB编程实践》介绍了国内外新研发的10种智能优化算法,对每种算法的灵感来源、实现过程、函数编程、案例应用都进行了细致描述并给出详细的MATLAB代码,使读者快速掌握智能优化算法的学习和应用方法。本书的主要特点为算法新颖,要素齐全,案例丰富,可移植性和实战性强。本书可作为本科生、研究生和教师的学习用书,也可以作为广大科研工作者、工程技术人员的参考用书。
2023-12-02 16:25:58 707
原创 《智能优化算法及其MATLAB实现》书籍出版啦
各位小伙伴,我们撰写的《智能优化算法及其MATLAB实现》由电子工业出版社出版了!欢迎大家参考学习!书籍在京东,当当网均有销售,直接去对应网站搜索书名即可!
2022-03-07 22:26:25 3281 3
原创 智能优化算法改进算法 -附代码
智能优化算法改进算法摘要:为了方便大家对智能优化算法进行改进,复现多种智能优化改进算法供大家参考。所有代码均根据已经发表的文章,来复现方便大家参考别人的原理,代码会不定时更新。1.文献复现:基于变因子加权学习与邻代维度交叉策略的改进乌鸦算法Matlab代码 [1]赵世杰,高雷阜,于冬梅,徒君.基于变因子加权学习与邻代维度交叉策略的改进CSA算法[J].电子学报,2019,47(01):40-48.2.文献复现:自适应t 分布变异的缎蓝园丁鸟优化算法 Matlab代码 [1] 韩斐斐,刘升.基于自适
2020-11-23 16:59:57 23109 33
原创 智能优化算法:麻雀搜索算法-附代码
2020智能优化算法:麻雀搜索算法-附代码文章目录2020智能优化算法:麻雀搜索算法-附代码1.算法原理2.算法结果3.参考文献4.Matlab代码摘要:麻雀搜索算法(Sparrow Search Algorithm, SSA)是于2020年提出的。SSA 主要是受麻雀的觅食行为和反捕食行为的启发而提出的。该算法比较新颖,具有寻优能力强,收敛速度快的优点1.算法原理建立麻雀搜索算法的数学模型,主要规则如下所述:发现者通常拥有较高的能源储备并且在整个种群中负责搜索到具有丰富食物的区域,为所有的加
2020-09-27 16:34:00 116939 174
原创 野狗算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用野狗算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-22 19:44:56 267
原创 饥饿游戏算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用饥饿游戏算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-22 19:44:10 233
原创 龙格-库塔算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用龙格-库塔算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-22 19:43:37 483
原创 蜜獾算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用非洲秃鹫算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-22 19:43:02 440
原创 非洲秃鹫算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用非洲秃鹫算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-22 19:42:28 741
原创 梯度算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用梯度算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-22 19:41:43 470
原创 堆优化算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用堆优化算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-22 19:41:05 667
原创 水基湍流算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用水基湍流算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-22 19:40:26 399
原创 人工水母算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用人工水母算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-22 19:39:45 587
原创 混沌博弈算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用混沌博弈算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-22 19:39:03 513
原创 冠状病毒群体免疫算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。若 m=L,ELM-AE实现等维度的特征表达;由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用冠状病毒群体免疫算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。
2024-05-21 21:03:06 503
原创 瞬态优化算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用瞬态优化算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-21 21:02:25 740
原创 金鹰算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用金鹰算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-21 21:01:44 531
原创 学校优化算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用学校优化算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-21 21:01:04 609
原创 鼠群算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用鼠群算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-21 21:00:25 770
原创 类电磁机制算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用类电磁机制算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-21 20:59:45 505
原创 闪电连接过程算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。若 m=L,ELM-AE实现等维度的特征表达;由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用闪电连接过程算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。
2024-05-21 20:59:11 547
原创 寄生捕食算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用寄生捕食算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-21 20:58:30 338
原创 黑寡妇算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用黑寡妇算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-21 20:57:49 595
原创 世界杯算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用世界杯算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-20 19:49:05 982
原创 吉萨金字塔建造算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。若 m=L,ELM-AE实现等维度的特征表达;由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用吉萨金字塔建造算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。
2024-05-20 19:48:25 951
原创 阿基米德优化算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。若 m=L,ELM-AE实现等维度的特征表达;由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用阿基米德优化算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。
2024-05-20 19:47:43 920
原创 适应度相关算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用适应度相关算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-20 19:47:08 699
原创 未来搜索算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用未来搜索算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-20 19:46:32 908
原创 算术优化算法改进的深度极限学习机DELM的回归预测
ELM基础原理请参考:https://blog.csdn.net/u011835903/article/details/111073635。自动编码器 AE(Auto Encoder)经过训练可以将输入复制到输出。因为不需要标记数据,训练自动编码器是不受监督的。因此,将AE的思想应用到ELM中,使ELM的输入数据同样被用于输出,即输出Y=X。作为自编码器的极限学习机ELM-AE网络结构如图1所示。图1.ELM-AE网络结构图若图1中m>L ,ELM-AE实现维度压缩,将高维度数据映射成低维度特征表达;若 m
2024-05-20 19:45:53 1182
原创 社会群体算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用社会群体算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-20 19:45:14 647
原创 黑猩猩算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用黑猩猩算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-20 19:44:37 972
原创 人工电场算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用人工电场算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-20 19:43:56 1035
原创 蛾群算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用蛾群算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-20 19:43:11 1140
原创 供需算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用供需算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-19 15:35:06 845
原创 静电放电算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用静电放电算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-19 15:34:25 607
原创 动物迁徙算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用动物迁徙算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-19 15:33:51 968
原创 和声算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用和声算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-19 15:33:11 514
原创 海洋捕食者算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用海洋捕食者算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-19 15:32:32 770
原创 JAYA算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用JAYA算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-19 15:31:51 787
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人