算法
文章平均质量分 74
算法学习
里咿恩夜石
主营:
炒粉 嵌入式 炒饭 QT/c++ 炸串 Linux 炒酸奶 初级电路设计
展开
-
多目标优化学习:GA
多目标优化的基本概念定义1-1(MOP):一般MOP由n个决策变量参数、k个目标函数和m个约束条件组成,其中目标函数、约束条件与决策变量之间是函数关系。最优化目标如下:maxmize y=f(x)=(f1(x),f2(x),…,fk(x))s.t. e(x)=(e1(x),e2(x),…,em(x))<0x->决策向量y->目标向量X为决策空间,x1,…xn属于XY为目标空间,y1…yn属于Ye(x)->决策的约束条件解决MOP的最终手段只能是在各子目标之间进行协原创 2021-11-16 21:13:13 · 1374 阅读 · 0 评论 -
多目标优化学习:NSGA-II
多目标遗传算法 (本文中是NSGA-II)其实该种算法较为取巧多目标问题难点在于需要让多个目标尽可能处于最优解,不像传统的优化算法一样,用一个目标函数的值是否符合需求即可。多个目标的情况下衡量是否最优属于向量优化问题,需要比较向量件的大小。多目标问题定义如下:min f(x)=[f1(x),f2(x),…,fn(x)]支配解与非支配解的概念多目标问题种多个目标存在冲突时,可用“支配”的概念决定解的好坏假设打游戏刷道具,有两种道具,四个npc,每个npc掉落的道具数量不尽相同怪物种原创 2021-11-16 21:01:52 · 3524 阅读 · 1 评论 -
多目标优化学习:PSO
粒子群优化算法基本思想: 通过群体中的个体之间的信息共享与个体间的协作寻找最优解优点: 了解之后其实比传统的遗传算法更容易操作原理: 粒子群算法中,每个粒子即解空间中的一个解(个体) 每个粒子通过自己的移动经验以及群体中其他粒子的移动经验来调整自己的移动每个粒子在移动过程中,经历的最好的位置被称为粒子的最优解(局部极值)而群体中所有的粒子移动时都经过 的一个点为这个群体的最优解(全局极值)和遗传算法相同,判断位置好坏的标准为适应度每个粒子通过局部极值和全局极值来产生新的个体抽象化:原创 2021-11-16 21:16:31 · 489 阅读 · 0 评论