- 博客(2746)
- 收藏
- 关注
原创 《智能优化算法与MATLAB编程实践》2023出版啦
第12章重点介绍智能优化算法的评价指标体系,选取部分测试函数和文中算法进行测试与分析,并给出完整MATLAB代码,供读者参考。《智能优化算法与MATLAB编程实践》介绍了国内外新研发的10种智能优化算法,对每种算法的灵感来源、实现过程、函数编程、案例应用都进行了细致描述并给出详细的MATLAB代码,使读者快速掌握智能优化算法的学习和应用方法。本书的主要特点为算法新颖,要素齐全,案例丰富,可移植性和实战性强。本书可作为本科生、研究生和教师的学习用书,也可以作为广大科研工作者、工程技术人员的参考用书。
2023-12-02 16:25:58 709
原创 《智能优化算法及其MATLAB实现》书籍出版啦
各位小伙伴,我们撰写的《智能优化算法及其MATLAB实现》由电子工业出版社出版了!欢迎大家参考学习!书籍在京东,当当网均有销售,直接去对应网站搜索书名即可!
2022-03-07 22:26:25 3282 3
原创 智能优化算法改进算法 -附代码
智能优化算法改进算法摘要:为了方便大家对智能优化算法进行改进,复现多种智能优化改进算法供大家参考。所有代码均根据已经发表的文章,来复现方便大家参考别人的原理,代码会不定时更新。1.文献复现:基于变因子加权学习与邻代维度交叉策略的改进乌鸦算法Matlab代码 [1]赵世杰,高雷阜,于冬梅,徒君.基于变因子加权学习与邻代维度交叉策略的改进CSA算法[J].电子学报,2019,47(01):40-48.2.文献复现:自适应t 分布变异的缎蓝园丁鸟优化算法 Matlab代码 [1] 韩斐斐,刘升.基于自适
2020-11-23 16:59:57 23118 33
原创 智能优化算法:麻雀搜索算法-附代码
2020智能优化算法:麻雀搜索算法-附代码文章目录2020智能优化算法:麻雀搜索算法-附代码1.算法原理2.算法结果3.参考文献4.Matlab代码摘要:麻雀搜索算法(Sparrow Search Algorithm, SSA)是于2020年提出的。SSA 主要是受麻雀的觅食行为和反捕食行为的启发而提出的。该算法比较新颖,具有寻优能力强,收敛速度快的优点1.算法原理建立麻雀搜索算法的数学模型,主要规则如下所述:发现者通常拥有较高的能源储备并且在整个种群中负责搜索到具有丰富食物的区域,为所有的加
2020-09-27 16:34:00 116996 174
原创 猎食者算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用猎食者算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-23 21:33:26 608
原创 鹰栖息算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用鹰栖息算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-23 21:32:43 237
原创 卷尾猴算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用卷尾猴算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-23 21:32:05 671
原创 人工大猩猩部队算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。若 m=L,ELM-AE实现等维度的特征表达;由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用人工大猩猩部队算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。
2024-05-23 21:31:23 627
原创 晶体结构算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用晶体结构算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-23 21:30:36 654
原创 变色龙算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用变色龙算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-23 21:29:55 648
原创 野马算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用野马算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-23 21:28:59 488
原创 白冠鸡算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用白冠鸡算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-23 21:27:26 493
原创 骑手优化算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用骑手优化算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-23 21:26:45 830
原创 社交网络算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用社交网络算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-23 21:26:04 660
原创 野狗算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用野狗算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-22 19:44:56 642
原创 饥饿游戏算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用饥饿游戏算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-22 19:44:10 475
原创 龙格-库塔算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用龙格-库塔算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-22 19:43:37 853
原创 蜜獾算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用非洲秃鹫算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-22 19:43:02 571
原创 非洲秃鹫算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用非洲秃鹫算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-22 19:42:28 1105
原创 梯度算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用梯度算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-22 19:41:43 521
原创 堆优化算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用堆优化算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-22 19:41:05 749
原创 水基湍流算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用水基湍流算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-22 19:40:26 499
原创 人工水母算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用人工水母算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-22 19:39:45 645
原创 混沌博弈算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用混沌博弈算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-22 19:39:03 608
原创 冠状病毒群体免疫算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。若 m=L,ELM-AE实现等维度的特征表达;由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用冠状病毒群体免疫算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。
2024-05-21 21:03:06 748
原创 瞬态优化算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用瞬态优化算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-21 21:02:25 921
原创 金鹰算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用金鹰算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-21 21:01:44 586
原创 学校优化算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用学校优化算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-21 21:01:04 789
原创 鼠群算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用鼠群算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-21 21:00:25 1000
原创 类电磁机制算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用类电磁机制算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-21 20:59:45 621
原创 闪电连接过程算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。若 m=L,ELM-AE实现等维度的特征表达;由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用闪电连接过程算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。
2024-05-21 20:59:11 707
原创 寄生捕食算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用寄生捕食算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-21 20:58:30 537
原创 黑寡妇算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用黑寡妇算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-21 20:57:49 654
原创 世界杯算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用世界杯算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-20 19:49:05 982
原创 吉萨金字塔建造算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。若 m=L,ELM-AE实现等维度的特征表达;由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用吉萨金字塔建造算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。
2024-05-20 19:48:25 952
原创 阿基米德优化算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。若 m=L,ELM-AE实现等维度的特征表达;由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用阿基米德优化算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。
2024-05-20 19:47:43 921
原创 适应度相关算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用适应度相关算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-20 19:47:08 699
原创 未来搜索算法改进的深度极限学习机DELM的回归预测
与传统深度学习算法相同,DELM 也是用逐层贪婪的训练方法来训练网络,DELM每个隐藏层的输入权重都使用ELM-AE初始化,执行分层无监督训练,但是与传统深度学习算法不同的是DELM不需要反向微调过程。由上述原理可知原始DELM中的,权重采用随机初始化的方式进行初始化,而初始权重对于整个模型的预测结果影响比较大,于是采用未来搜索算法对DELM的初始权重进行优化。综上,ELM-AE是一个通用的逼近器,特点就是使网络的输出与输入相同,而且隐藏层的输入参数。这里DELM采用2层结构,每层的节点数分别为2,3。
2024-05-20 19:46:32 909
原创 算术优化算法改进的深度极限学习机DELM的回归预测
ELM基础原理请参考:https://blog.csdn.net/u011835903/article/details/111073635。自动编码器 AE(Auto Encoder)经过训练可以将输入复制到输出。因为不需要标记数据,训练自动编码器是不受监督的。因此,将AE的思想应用到ELM中,使ELM的输入数据同样被用于输出,即输出Y=X。作为自编码器的极限学习机ELM-AE网络结构如图1所示。图1.ELM-AE网络结构图若图1中m>L ,ELM-AE实现维度压缩,将高维度数据映射成低维度特征表达;若 m
2024-05-20 19:45:53 1183
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人