信息: 2018年 地球物理研究所以及波兰科学院 波兰
题目: Some metaheuristics should be simplified
问题现象:
为了得到更好的优化 结果会出现两种的 状况---
(1)一些流行 算法会被多次反复的改进(2)多种算法进行混合 有这个必要??
这个作针对以上两种现象作者提出的改进策略:
现象(1)--------------意见-----------去除不需要的累加元素
现象(2)-------------意见------------移除对某些部分过度采样的参数
文章的脉络
引言陈述该现象---若是 一个算法在架构上有一种偏移(自己的理解:比如说测试函数的最优解是0,而这个结构上的偏移可能就涉及到使得算法结果尽量向0靠拢,就想为了通过图灵机测试,故意的着重测试那些图灵机测试的题目,以结果作为一种导向, 这种我个人认为也是一种作弊)
基于CEC2016测试,得到了两个 比较好的算法分别是:l-SHADE-EpSin,和 UMOEA-II
2. Step-by-step development of L-SHADE-EpSin and UMOEA-II
具体的内容可以自己去看函数
反正就是一步步的将其 发展改进中的数学模型以及理论方法进行综述,最后还有 伪代码的部分
3. Structural bias in L-SHADE-EpSin and UMOEA-II
分别的 依据作者提出的改进的方法, 进行陈述说明 ,那些个部分应该是进行规避的,删除的,然后 进行试验说明。
个人感觉:
这个有点反其道而行之的意思,既然大家都在疯狂的添加东西给算法,那么 有没有事冗余的,而 作者自己没有意识到? 感觉挺有意思的。不过文章自己没有太看懂算法 的部分