Python
文章平均质量分 84
优化算法MATLAB与Python
这个作者很懒,什么都没留下…
展开
-
机器人路径规划:基于双向A*算法(bidirectional a star)的机器人路径规划(提供Python代码)
传统A*算法是一种静态路网中求解最短路径最有效的方法, 它结合了BFS 算法和迪杰斯特拉算法(Dijkstra)的优点。和迪杰斯特拉算法(Dijkstra)一样, A*算法能够用于 搜索最短路径;和BFS 算法一样, A*算法可以用 启发式函数引导给出当下的最佳解。传统A*算法的重点在于扩展下一个节点时引入了启发式函数 h(n), 对当前节点到目标节点的距离代价进行了评 估。通过计算函数的相对最优解来筛选当前节点周 围的扩展节点, 能适用于各种场景, 相当灵活。原创 2024-03-24 09:19:44 · 557 阅读 · 0 评论 -
机器人路径规划:基于斑翠鸟优化算法(Pied Kingfisher Optimizer ,PKO)的机器人路径规划(提供MATLAB代码)
移动机器人(Mobile robot,MR)的路径规划是 移动机器人研究的重要分支之,是对其进行控制的基础。根据环境信息的已知程度不同,路径规划分为基于环境信息已知的全局路径规划和基于环境信息未知或局部已知的局部路径规划。随着科技的快速发展以及机器人的大量应用,人们对机器人的要求也越来越高,尤其表现在对机器人的智能化方面的要求,而机器人自主路径规划是实现机器人智能化的重要步骤,路径规划是指规划机器人从起点位置出发,无碰撞、安全到达指定目标位置的最优路径。原创 2024-03-20 19:18:41 · 1025 阅读 · 0 评论 -
机器人路径规划:基于迪杰斯特拉算法(Dijkstra)的机器人路径规划(提供Python代码)
Dijkstra算法采用贪心策略,通过逐步扩展已知最短路径集合来逐步确定最短路径。它使用一个距离数组来记录从起始节点到其他节点的当前最短距离,并通过不断更新距离数组来逐步确定最短路径。原创 2024-03-20 18:26:25 · 483 阅读 · 0 评论 -
机器人路径规划:基于双向广度优先搜索(Bidirectional Breadth-First grid planning)算法的机器人路径规划(提供Python代码)
双向广度优先搜索算法是一种用于解决图或树中两个节点之间最短路径问题的算法。它通过同时从起点和终点开始搜索,每次扩展当前层的节点,直到两个搜索方向相遇或找到了最短路径。算法步骤如下:1. 初始化两个队列,分别存放起点和终点。2. 初始化两个集合,分别用于记录起点和终点已经访问过的节点。3. 从起点和终点分别开始进行广度优先搜索,每次扩展当前层的节点。4. 在每一轮搜索中,检查当前层的节点是否已经在另一方向的集合中出现过,如果是,则找到了最短路径。原创 2024-03-20 18:24:39 · 316 阅读 · 0 评论 -
机器人路径规划:基于广度优先搜索算法的机器人路径规划(提供Python代码)
广度优先搜索(BFS)是一种用于图或树的遍历算法,它从根节点开始,逐层地向下搜索,直到找到目标节点或遍历完整个图。BFS使用队列数据结构来实现,保证了节点的访问顺序是按照层级逐个进行的。BFS的过程如下:1. 将起始节点放入队列中。2. 从队列中取出一个节点,并访问该节点。3. 将该节点的所有未访问过的邻居节点放入队列中。4. 标记该节点为已访问。5. 重复步骤2-4,直到队列为空。BFS的特点是先访问离起始节点最近的节点,然后逐渐向外扩展。原创 2024-03-20 18:22:53 · 176 阅读 · 0 评论 -
多目标优化(Python):多目标粒子群优化算法(MOPSO)求解ZDT1、ZDT2、ZDT3、ZDT4、ZDT6(提供Python代码)
ZDT1、ZDT2、ZDT3、ZDT4和ZDT6是一些常用的多目标优化测试函数。它们被广泛用于评估多目标优化算法的性能和效果。ZDT1函数是一个双目标优化函数,它具有一个全局最优解和一个局部最优解。原创 2024-01-15 21:57:05 · 1991 阅读 · 4 评论 -
强化学习应用(八):基于Q-learning的物流配送路径规划研究(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于马尔可夫决策过程(MDP)的问题。它通过学习一个值函数来指导智能体在环境中做出决策,以最大化累积奖励。Q-learning算法的核心思想是使用一个Q值函数来估计每个状态动作对的价值。Q值表示在特定状态下采取某个动作所能获得的预期累积奖励。算法通过不断更新Q值函数来优化智能体的决策策略。原创 2024-01-15 17:58:07 · 931 阅读 · 0 评论 -
强化学习应用(七):基于Q-learning的物流配送路径规划研究(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于马尔可夫决策过程(MDP)的问题。它通过学习一个值函数来指导智能体在环境中做出决策,以最大化累积奖励。Q-learning算法的核心思想是使用一个Q值函数来估计每个状态动作对的价值。Q值表示在特定状态下采取某个动作所能获得的预期累积奖励。算法通过不断更新Q值函数来优化智能体的决策策略。原创 2024-01-15 17:45:32 · 960 阅读 · 0 评论 -
强化学习应用(六):基于Q-learning的物流配送路径规划研究(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于马尔可夫决策过程(MDP)的问题。它通过学习一个值函数来指导智能体在环境中做出决策,以最大化累积奖励。Q-learning算法的核心思想是使用一个Q值函数来估计每个状态动作对的价值。Q值表示在特定状态下采取某个动作所能获得的预期累积奖励。算法通过不断更新Q值函数来优化智能体的决策策略。原创 2024-01-15 17:42:12 · 335 阅读 · 0 评论 -
强化学习应用(六):基于Q-learning的物流配送路径规划研究(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于马尔可夫决策过程(MDP)的问题。它通过学习一个值函数来指导智能体在环境中做出决策,以最大化累积奖励。Q-learning算法的核心思想是使用一个Q值函数来估计每个状态动作对的价值。Q值表示在特定状态下采取某个动作所能获得的预期累积奖励。算法通过不断更新Q值函数来优化智能体的决策策略。原创 2024-01-14 20:41:46 · 940 阅读 · 0 评论 -
强化学习应用(五):基于Q-learning的物流配送路径规划研究(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于马尔可夫决策过程(MDP)的问题。它通过学习一个值函数来指导智能体在环境中做出决策,以最大化累积奖励。Q-learning算法的核心思想是使用一个Q值函数来估计每个状态动作对的价值。Q值表示在特定状态下采取某个动作所能获得的预期累积奖励。算法通过不断更新Q值函数来优化智能体的决策策略。原创 2024-01-15 00:45:00 · 1111 阅读 · 1 评论 -
强化学习应用(四):基于Q-learning的物流配送路径规划研究(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于马尔可夫决策过程(MDP)的问题。它通过学习一个值函数来指导智能体在环境中做出决策,以最大化累积奖励。Q-learning算法的核心思想是使用一个Q值函数来估计每个状态动作对的价值。Q值表示在特定状态下采取某个动作所能获得的预期累积奖励。算法通过不断更新Q值函数来优化智能体的决策策略。原创 2024-01-15 00:30:00 · 816 阅读 · 0 评论 -
强化学习应用(三):基于Q-learning的物流配送路径规划研究(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于马尔可夫决策过程(MDP)的问题。它通过学习一个值函数来指导智能体在环境中做出决策,以最大化累积奖励。Q-learning算法的核心思想是使用一个Q值函数来估计每个状态动作对的价值。Q值表示在特定状态下采取某个动作所能获得的预期累积奖励。算法通过不断更新Q值函数来优化智能体的决策策略。原创 2024-01-14 09:52:38 · 1301 阅读 · 0 评论 -
强化学习应用(二):基于Q-learning的物流配送路径规划研究(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于马尔可夫决策过程(MDP)的问题。它通过学习一个值函数来指导智能体在环境中做出决策,以最大化累积奖励。Q-learning算法的核心思想是使用一个Q值函数来估计每个状态动作对的价值。Q值表示在特定状态下采取某个动作所能获得的预期累积奖励。算法通过不断更新Q值函数来优化智能体的决策策略。原创 2024-01-14 03:30:00 · 1118 阅读 · 1 评论 -
强化学习应用(一):基于Q-learning的物流配送路径规划研究(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于马尔可夫决策过程(MDP)的问题。它通过学习一个值函数来指导智能体在环境中做出决策,以最大化累积奖励。Q-learning算法的核心思想是使用一个Q值函数来估计每个状态动作对的价值。Q值表示在特定状态下采取某个动作所能获得的预期累积奖励。算法通过不断更新Q值函数来优化智能体的决策策略。原创 2024-01-14 02:45:00 · 2106 阅读 · 2 评论 -
强化学习应用(八):基于Q-learning算法的无人车配送路径规划(通过Python代码)
Q-learning是一种强化学习算法,用于解决基于环境的决策问题。它通过学习一个Q-table来指导智能体在不同状态下采取最优动作。下面是Q-learning算法的基本步骤:1. 定义环境:确定问题的状态和动作空间,并创建一个变量来表示环境。2. 初始化Q-table:创建一个Q-table,其大小与状态和动作空间相匹配,并将所有Q值初始化为0。3. 设置超参数:设置一些超参数,如学习率(alpha)、折扣因子(gamma)和探索率(epsilon)。原创 2024-01-13 16:17:50 · 508 阅读 · 1 评论 -
强化学习应用(七):基于Q-learning算法的无人车配送路径规划(通过Python代码)
Q-learning是一种强化学习算法,用于解决基于环境的决策问题。它通过学习一个Q-table来指导智能体在不同状态下采取最优动作。下面是Q-learning算法的基本步骤:1. 定义环境:确定问题的状态和动作空间,并创建一个变量来表示环境。2. 初始化Q-table:创建一个Q-table,其大小与状态和动作空间相匹配,并将所有Q值初始化为0。3. 设置超参数:设置一些超参数,如学习率(alpha)、折扣因子(gamma)和探索率(epsilon)。原创 2024-01-13 16:17:10 · 925 阅读 · 1 评论 -
强化学习应用(六):基于Q-learning算法的无人车配送路径规划(通过Python代码)
Q-learning是一种强化学习算法,用于解决基于环境的决策问题。它通过学习一个Q-table来指导智能体在不同状态下采取最优动作。下面是Q-learning算法的基本步骤:1. 定义环境:确定问题的状态和动作空间,并创建一个变量来表示环境。2. 初始化Q-table:创建一个Q-table,其大小与状态和动作空间相匹配,并将所有Q值初始化为0。3. 设置超参数:设置一些超参数,如学习率(alpha)、折扣因子(gamma)和探索率(epsilon)。原创 2024-01-13 10:08:35 · 1116 阅读 · 2 评论 -
强化学习应用(五):基于Q-learning算法的无人车配送路径规划(通过Python代码)
Q-learning是一种强化学习算法,用于解决基于环境的决策问题。它通过学习一个Q-table来指导智能体在不同状态下采取最优动作。下面是Q-learning算法的基本步骤:1. 定义环境:确定问题的状态和动作空间,并创建一个变量来表示环境。2. 初始化Q-table:创建一个Q-table,其大小与状态和动作空间相匹配,并将所有Q值初始化为0。3. 设置超参数:设置一些超参数,如学习率(alpha)、折扣因子(gamma)和探索率(epsilon)。原创 2024-01-13 10:07:43 · 969 阅读 · 1 评论 -
强化学习应用(四):基于Q-learning算法的无人车配送路径规划(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于环境的决策问题。它通过学习一个Q-table来指导智能体在不同状态下采取最优动作。下面是Q-learning算法的基本步骤:1. 定义环境:确定问题的状态和动作空间,并创建一个变量来表示环境。2. 初始化Q-table:创建一个Q-table,其大小与状态和动作空间相匹配,并将所有Q值初始化为0。3. 设置超参数:设置一些超参数,如学习率(alpha)、折扣因子(gamma)和探索率(epsilon)。原创 2024-01-12 18:00:33 · 648 阅读 · 1 评论 -
强化学习应用(三):基于Q-learning算法的无人车配送路径规划(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于环境的决策问题。它通过学习一个Q-table来指导智能体在不同状态下采取最优动作。下面是Q-learning算法的基本步骤:1. 定义环境:确定问题的状态和动作空间,并创建一个变量来表示环境。2. 初始化Q-table:创建一个Q-table,其大小与状态和动作空间相匹配,并将所有Q值初始化为0。3. 设置超参数:设置一些超参数,如学习率(alpha)、折扣因子(gamma)和探索率(epsilon)。原创 2024-01-12 17:59:38 · 447 阅读 · 1 评论 -
强化学习应用(二):基于Q-learning算法的无人车配送路径规划(通过Python代码)
Q-learning是一种强化学习算法,用于解决基于环境的决策问题。它通过学习一个Q-table来指导智能体在不同状态下采取最优动作。下面是Q-learning算法的基本步骤:1. 定义环境:确定问题的状态和动作空间,并创建一个变量来表示环境。2. 初始化Q-table:创建一个Q-table,其大小与状态和动作空间相匹配,并将所有Q值初始化为0。3. 设置超参数:设置一些超参数,如学习率(alpha)、折扣因子(gamma)和探索率(epsilon)。原创 2024-01-12 02:45:00 · 914 阅读 · 1 评论 -
强化学习应用(一):基于Q-learning算法的无人车配送路径规划(通过Python代码)
Q-learning是一种强化学习算法,用于解决基于环境的决策问题。它通过学习一个Q-table来指导智能体在不同状态下采取最优动作。下面是Q-learning算法的基本步骤:1. 定义环境:确定问题的状态和动作空间,并创建一个变量来表示环境。2. 初始化Q-table:创建一个Q-table,其大小与状态和动作空间相匹配,并将所有Q值初始化为0。3. 设置超参数:设置一些超参数,如学习率(alpha)、折扣因子(gamma)和探索率(epsilon)。原创 2024-01-12 02:15:00 · 902 阅读 · 2 评论 -
强化学习求解TSP(七):Qlearning求解旅行商问题TSP(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于奖励的决策问题。它是一种无模型的学习方法,通过与环境的交互来学习最优策略。Q-learning的核心思想是通过学习一个Q值函数来指导决策,该函数表示在给定状态下采取某个动作所获得的累积奖励。Q-learning的训练过程如下:1. 初始化Q值函数,将所有状态-动作对的Q值初始化为0。2. 在每个时间步,根据当前状态选择一个动作。可以使用ε-greedy策略来平衡探索和利用。3. 执行选择的动作,并观察环境返回的奖励和下一个状态。原创 2024-01-11 20:42:36 · 942 阅读 · 0 评论 -
强化学习求解TSP(八):Qlearning求解旅行商问题TSP(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于奖励的决策问题。它是一种无模型的学习方法,通过与环境的交互来学习最优策略。Q-learning的核心思想是通过学习一个Q值函数来指导决策,该函数表示在给定状态下采取某个动作所获得的累积奖励。Q-learning的训练过程如下:1. 初始化Q值函数,将所有状态-动作对的Q值初始化为0。2. 在每个时间步,根据当前状态选择一个动作。可以使用ε-greedy策略来平衡探索和利用。3. 执行选择的动作,并观察环境返回的奖励和下一个状态。原创 2024-01-11 20:41:29 · 984 阅读 · 0 评论 -
强化学习求解TSP:Qlearning求解旅行商问题(Traveling salesman problem, TSP)
Q-learning是一种强化学习算法,用于解决基于奖励的决策问题。它是一种无模型的学习方法,通过与环境的交互来学习最优策略。Q-learning的核心思想是通过学习一个Q值函数来指导决策,该函数表示在给定状态下采取某个动作所获得的累积奖励。Q-learning的训练过程如下:1. 初始化Q值函数,将所有状态-动作对的Q值初始化为0。2. 在每个时间步,根据当前状态选择一个动作。可以使用ε-greedy策略来平衡探索和利用。3. 执行选择的动作,并观察环境返回的奖励和下一个状态。原创 2024-01-10 20:12:09 · 895 阅读 · 1 评论 -
TSP(Python):Qlearning求解旅行商问题TSP(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于奖励的决策问题。它是一种无模型的学习方法,通过与环境的交互来学习最优策略。Q-learning的核心思想是通过学习一个Q值函数来指导决策,该函数表示在给定状态下采取某个动作所获得的累积奖励。Q-learning的训练过程如下:1. 初始化Q值函数,将所有状态-动作对的Q值初始化为0。2. 在每个时间步,根据当前状态选择一个动作。可以使用ε-greedy策略来平衡探索和利用。3. 执行选择的动作,并观察环境返回的奖励和下一个状态。原创 2024-01-10 20:09:55 · 1012 阅读 · 1 评论 -
CEC2017(Python):七种算法(PSO、RFO、DBO、HHO、SSA、DE、GWO)求解CEC2017
参考文献:[1]Awad, N. H., Ali, M. Z., Liang, J. J., Qu, B. Y., & Suganthan, P. N. (2016). “Problem definitions and evaluation criteria for the CEC2017 special session and competition on single objective real-parameter numerical optimization,” Technical Report.原创 2024-01-05 20:27:24 · 415 阅读 · 1 评论 -
CEC2017(Python):七种算法(RFO、DBO、HHO、SSA、DE、GWO、OOA)求解CEC2017
参考文献:[1]Awad, N. H., Ali, M. Z., Liang, J. J., Qu, B. Y., & Suganthan, P. N. (2016). “Problem definitions and evaluation criteria for the CEC2017 special session and competition on single objective real-parameter numerical optimization,” Technical Report.原创 2024-01-05 20:26:21 · 552 阅读 · 1 评论 -
CEC2017(Python):六种算法(PSO、DBO、HHO、SSA、DE、HHO)求解CEC2017
参考文献:[1]Awad, N. H., Ali, M. Z., Liang, J. J., Qu, B. Y., & Suganthan, P. N. (2016). “Problem definitions and evaluation criteria for the CEC2017 special session and competition on single objective real-parameter numerical optimization,” Technical Report.原创 2024-01-04 18:23:02 · 1037 阅读 · 2 评论 -
CEC2017(Python):六种算法(RFO、DBO、HHO、SSA、DE、HHO)求解CEC2017
参考文献:[1]Awad, N. H., Ali, M. Z., Liang, J. J., Qu, B. Y., & Suganthan, P. N. (2016). “Problem definitions and evaluation criteria for the CEC2017 special session and competition on single objective real-parameter numerical optimization,” Technical Report.原创 2024-01-04 18:21:47 · 499 阅读 · 1 评论 -
CEC2017(Python):五种算法(GWO、RFO、DBO、SSA、DE)求解CEC2017(含Python代码)
参考文献:[1]Awad, N. H., Ali, M. Z., Liang, J. J., Qu, B. Y., & Suganthan, P. N. (2016). “Problem definitions and evaluation criteria for the CEC2017 special session and competition on single objective real-parameter numerical optimization,” Technical Report.原创 2024-01-03 21:36:41 · 383 阅读 · 0 评论 -
CEC2017(Python):五种算法(RFO、DBO、HHO、SSA、DE)求解CEC2017(含Python代码)
参考文献:[1]Awad, N. H., Ali, M. Z., Liang, J. J., Qu, B. Y., & Suganthan, P. N. (2016). “Problem definitions and evaluation criteria for the CEC2017 special session and competition on single objective real-parameter numerical optimization,” Technical Report.原创 2024-01-03 21:23:04 · 367 阅读 · 0 评论