💥💥💞💞欢迎来到本博客❤️❤️💥💥
🏆博主优势:🌞🌞🌞博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。
⛳️座右铭:行百里者,半于九十。
📋📋📋本文目录如下:🎁🎁🎁
目录
💥1 概述
基于蚁群优化的无人机任务计划是一种利用蚁群算法来解决无人机路径规划问题的方法。这种方法模仿了蚁群在搜索食物时的行为,通过模拟蚂蚁在解决问题时的集体智慧和信息沟通来寻找最优解。在无人机任务计划中,蚂蚁代表了无人机,它们在问题空间中移动,寻找适合的路径,以完成任务。蚁群算法通过不断地更新路径信息素浓度和引入随机性来搜索解空间,并借助启发式信息来引导搜索过程。这种方法能够有效地解决无人机任务规划问题,包括最优路径选择、资源分配和任务调度等方面。通过模拟蚂蚁的行为,基于蚁群优化的无人机任务计划可以在复杂的环境中找到高质量的解决方案,并具有一定的鲁棒性和适应性。
📚2 运行结果
部分代码:
t=[4 5;16 25.8;10 45;20 55;30 65;35 55;29 31;37 26;47 27;50 51.3;51 17;14 7;40 10;26.7 22.5;21 39;38 42;5 26;28 53;20 13;10 60;26 41;54 38;7 58;12 36;30 2] %24个点,第25个点事origin
save t.mat t
load t.mat
%%计算城市间相互距离
%n=size(t,1);
n=6;
D=zeros(25,25);
for i=1:25
for j=1:25
if i~=j
D(i,j)=sqrt(sum((t(i,:)-t(j,:)).^2));
else
D(i,j)=1e-4;
end
end
end
%%初始化参数
m=4; %蚂蚁个数 【原来是1只蚂蚁要走过24个点,现在是4只蚂蚁总共走过24个点】【5组蚂蚁,每组里面4只,每只走过6个点】
alpha=1; %信息素重要程度因子
beta=5; %启发函数重要程度因子
rho=0.1; %信息素挥发因子
Q=50; %总量
eta=1./D; %启发函数
tau=ones(25,25);%信息素矩阵
table=zeros(m,n);%路径记录表
iter=1; %迭代次数初始值
iter_max=400; %迭代次数最大值
route_best=zeros((4*iter_max),n); %每次迭代最佳路径
length_best=zeros(iter_max,1);%每次迭代最佳路径长度(应该是一次比一次小)
length_ave=zeros(iter_max,1); %每次迭代路径平均长度
%%迭代寻找最佳路径
while iter<=iter_max
city_index=1:24; %城市来标号
wholetable=[];
s=1;
while s<=10
start=zeros(4,1);
temp=randperm(24);
for i=1:4
start(i)=temp(i);
end
table(:,1)=start;
for j=2:n
for i=1:m
tabu=table(1:((j-1)*4+i-1)); %把第i只蚂蚁之前所走过的所有城市放入禁忌表中 【把table里面从第一个数到j-1全放到禁忌表中】
allow_index=~ismember(city_index,tabu); %【走过的变成0,能走的为1】【若tabu=(1 4)则allow_index=(0 1 1 0 1 1 1...)】【注意:allow_index与city_index同维】
allow=city_index(allow_index); %把还能走的序号摘出来了(待访问的城市集合)
P=allow;
%计算城市的转移概率
for k=1:max(size(allow))
P(k)=(tau(tabu(end-3),allow(k))^alpha)*(eta(tabu(end-3),allow(k))^beta);
end
P=P/sum(P);
%轮盘赌法选择下一个城市
🎉3 参考文献
文章中一些内容引自网络,会注明出处或引用为参考文献,难免有未尽之处,如有不妥,请随时联系删除。
[1]Cao Z ,Xu K ,Wang Z , et al. An adaptive population size based Differential Evolution by mining historical population similarity for path planning of unmanned aerial vehicles[J]. Information Sciences,2024,666.
[2]Lv H ,Chen Y ,Li S , et al. Improve exploration in deep reinforcement learning for UAV path planning using state and action entropy[J]. Measurement Science and Technology,2024,35(5).