训练日记-17

博主分享了一天的算法训练经历,上午因故未训练,下午专注刷题。遇到数学题花费较多时间但未能解决,接着快速解决了单调栈原题。在D题和C题上遇到困难,D题循环顺序出错,C题无法找到背包问题的解决方案。晚上练习树状数组,意识到数据量大时需要注意类型溢出,提醒自己要留意非知识点的细节问题,避免程序困扰。
摘要由CSDN通过智能技术生成

       今天上午由于家里原因并没有刷题,下午就刷了一下午的练习赛,刚开始就从A题开始看,上来A题就是个数学题,想了半天有点思路了,然后根据自己的思路好歹的把代码写出来了,在写的过程中就感觉有漏洞,也没想出来怎么处理,最后wrong,放弃了看下一道。B题一眼望去就是个原题,是最近训练专题的一道单调栈的原题,然后就直接A了。后面的题都看了一下,就只有D题有思路,但是刚开始循环顺序有点错误一直wrong;C题虽然看出来是个背包问题,但是并没有什么思路。。。就这样一下午就过去了。

       晚上就在刷训练三的树状数组问题,通过这几天树状数组的练习发现,树状数组的数据量都比较大,尤其再是求和问题,数据会更大。所以一般注意用long long定义,有的时候long long都不够用的,需要用64位的。总之这些非知识点方面的错误平时需要多加注意,尽量避免因为这种细节问题而在程序上纠结半天。。。(深有体会!!!)

     继续加油!

使用优化算法,以优化VMD算法的惩罚因子惩罚因子 (α) 和分解层数 (K)。 1、将量子粒子群优化(QPSO)算法与变分模态分解(VMD)算法结合 VMD算法背景: VMD算法是一种自适应信号分解算法,主要用于分解信号为不同频率带宽的模态。 VMD的关键参数包括: 惩罚因子 α:控制带宽的限制。 分解层数 K:决定分解出的模态数。 QPSO算法背景: 量子粒子群优化(QPSO)是一种基于粒子群优化(PSO)的一种改进算法,通过量子行为模型增强全局搜索能力。 QPSO通过粒子的量子行为使其在搜索空间中不受位置限制,从而提高算法的收敛速度与全局优化能力。 任务: 使用QPSO优化VMD中的惩罚因子 α 和分解层数 K,以获得信号分解的最佳效果。 计划: 定义适应度函数:适应度函数根据VMD分解的效果来定义,通常使用重构信号的误差(例如均方误差、交叉熵等)来衡量分解的质量。 初始化QPSO粒子:定义粒子的位置和速度,表示 α 和 K 两个参数。初始化时需要在一个合理的范围内为每个粒子分配初始位置。 执行VMD分解:对每一组 α 和 K 参数,运行VMD算法分解信号。 更新QPSO粒子:使用QPSO算法更新粒子的状态,根据适应度函数调整粒子的搜索方向和位置。 迭代求解:重复QPSO的粒子更新步骤,直到满足终止条件(如适应度函数达到设定阈值,或最大迭代次数)。 输出优化结果:最终,QPSO算法会返回一个优化的 α 和 K,从而使VMD分解效果最佳。 2、将极光粒子(PLO)算法与变分模态分解(VMD)算法结合 PLO的优点与适用性 强大的全局搜索能力:PLO通过模拟极光粒子的运动,能够更高效地探索复杂的多峰优化问题,避免陷入局部最优。 鲁棒性强:PLO在面对高维、多模态问题时有较好的适应性,因此适合海上风电时间序列这种非线性、多噪声的数据。 应用场景:PLO适合用于优化VMD参数(α 和 K),并将其用于风电时间序列的预测任务。 进一步优化的建议 a. 实现更细致的PLO更新策略,优化极光粒子的运动模型。 b. 将PLO优化后的VMD应用于真实的海上风电数据,结合LSTM或XGBoost等模型进行风电功率预测。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值