自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(50)
  • 收藏
  • 关注

原创 win11桌面图标或文本bug的解决方法

按下 Win+R 键,在运行窗口中输入 regedit 并回车打开注册表编辑器。在注册表编辑器顶部地址栏输入下面地址并回车:计算机\HKEY_CURRENT_USER\Control Panel\Desktop\WindowMetrics找到 IconSpacing、IconVerticalSpacing,右键菜单 - 修改,将数值数据改为 -1125(系统默认值),点击 [确定]。然后重启电脑即可。

2024-05-10 15:06:24 175

原创 Mac上docker出现Another application changed your Desktop configurations. This may cause unexpected TOC

在docker中调出设置界面,command+逗号,然后点击最左侧的Advanced。并且发现点击Re-apply configuration后几秒种仍然出现警告现象。在Advanced中取消勾选最后一个选项,然后点击应用和重新启动,此问题即可解决。

2024-03-24 18:25:20 734 1

原创 重庆大学c++期末复习真题

期末模拟选择题答案:CACBBCDCCA分数 4作者 刘骥单位 重庆大学下列程序代码,正确的输出结果是( )int a=0xfe;char b=062;A.0xfe,062B.fe,62C.254,2D.254,622-2分数 4作者 刘骥单位 重庆大学下列代码能正确执行的是( )A.char a=‘C’;p=&a;p=a;D.

2024-02-11 16:58:23 1055

原创 Mac中miniob开发环境的搭建

2023-10-12 22:39:32 239

原创 关于Levy 飞行策略

Levy 飞行策略在一些自然界的搜索和优化问题中具有应用,例如在动物的觅食行为研究中,以及一些元启发式算法和优化算法中。Levy 飞行策略是一种随机行为策略,用于模拟随机游走或搜索过程中的步长和方向。这种策略的名称来自于莱维飞行(Levy flight),它模拟了在某些情况下生物在搜索食物或资源时的运动方式。:Levy 飞行通常涉及采取长步长和长距离的移动,这意味着在一次迭代中可能会跳跃到相对远离当前位置的新位置。:Levy 飞行是随机性的,步长和方向都是随机选择的。

2023-10-12 10:30:47 3996

原创 关于Krill-based algorithm 和蚁群算法

Krill-based algorithm(KBA)和蚁群算法(Ant Colony Optimization,ACO)都是启发式优化算法,用于解决各种优化问题。总的来说,KBA 和 ACO 都是基于自然界生物行为的启发式算法,但它们的灵感来源、搜索策略和应用领域有所不同。选择使用哪种算法取决于具体问题的性质和优化需求。

2023-10-12 10:29:42 95

原创 关于 Krill-based algorithm 和遗传算法

需要根据具体问题的性质和要求来选择使用 KBA 还是传统的遗传算法。每种算法都有其优势和局限性,适用于不同类型的优化问题。

2023-10-12 10:27:54 62

原创 关于Krill-based algorithm(KBA)

Krill-based algorithm(KBA)是一种启发式算法,灵感来自于虫类中的一种生物——磷虾(Krill)。磷虾是一种生活在深海中的微小生物,它们以群体行动的方式在海洋中搜索食物并进行协同捕食。KBA 模拟了磷虾群体的行为,将其应用于解决优化问题。总体来说,Krill-based algorithm 通过模拟磷虾的协同行为,提供了一种用于解决优化问题的启发式搜索方法。KBA 的主要思想是通过模拟磷虾的聚集和分散行为来搜索问题的最优解。这种群体行为启发了 KBA 的设计。

2023-10-12 10:25:16 48

原创 关于model-free 算法

无模型算法是一类用于解决机器学习和人工智能中问题的强化学习(Reinforcement Learning,RL)算法,其中代理通过反复尝试和错误来学习做出决策,而无需显式地对底层系统动态建模。在无模型 RL 中,代理专注于直接从与环境的交互中学习最佳策略,而不是构建环境运作方式的模型。无模型算法广泛应用于自主机器人、游戏玩法优化、金融交易策略和自动驾驶等领域,其中代理需要通过与环境的交互来学习最佳决策策略,而不需要了解环境内部的详细信息。:Q 学习和 SARSA 是两种著名的无模型算法。

2023-10-12 10:17:49 98

原创 关于多智能体深度确定性策略梯度(Multi-Agent Deep Deterministic Policy Gradient,MADDPG)

多智能体深度确定性策略梯度(Multi-Agent Deep Deterministic Policy Gradient,MADDPG)是一种强化学习算法,用于解决多智能体系统中的协同决策问题。与单一智能体问题不同,多智能体问题涉及到多个智能体同时作出决策,并且它们的决策相互影响。MADDPG 算法被广泛应用于多智能体协同控制问题,例如多智能体协同探索、多智能体协同博弈等领域。它使得多个智能体能够通过协同合作来解决复杂的任务,是多智能体强化学习中的重要算法之一。

2023-10-12 10:07:05 473

原创 关于深度确定性策略梯度算法(Deep Deterministic Policy Gradient,DDPG)

深度确定性策略梯度算法(Deep Deterministic Policy Gradient,DDPG)是一种用于解决连续动作空间问题的强化学习算法。它是深度 Q 网络(Deep Q-Network,DQN)算法的扩展,结合了策略梯度和 Q 学习的元素。DDPG 的主要目标是学习一个能够在连续动作空间中选择动作的策略,并且最大化累积奖励。它在解决诸如机器人控制和自主导航等需要连续动作的复杂任务中表现出色。通过结合策略梯度方法和 Q 学习的思想,DDPG 使得在连续动作环境中的深度强化学习变得更加可行。

2023-10-12 10:05:49 215

原创 关于元启发式算法(Metaheuristic Algorithm)

与传统的优化算法不同,元启发式算法更加抽象和通用,它不依赖于特定问题领域的知识,而是提供一种通用的框架来搜索问题的解空间,以找到近似最优解。总的来说,元启发式算法是一种通用的优化框架,可用于解决各种类型的复杂优化问题。:元启发式算法是通用的,可以应用于各种类型的优化问题,包括组合优化、连续优化、多目标优化等。这包括随机性、多个搜索子空间、交叉、变异等操作,以鼓励算法在解空间中探索更广泛的区域。:元启发式算法也可以扩展到解决多目标优化问题,其中目标是冲突的,需要在不同的目标之间进行权衡和优化。

2023-10-12 10:03:44 1390

原创 关于多层前馈人工神经网络(Multilayer Feed-Forward Artificial Neural Network,MLP)

多层前馈人工神经网络(Multilayer Feed-Forward Artificial Neural Network,MLP)是一种人工神经网络,它由多个神经元层组成,信息在其中以单向传播的方式进行处理,从输入到输出,不形成循环。:通常使用反向传播算法进行训练,该算法使用梯度下降来调整权重和偏差,以最小化模型的损失函数。:在 MLP 中,信号从输入层传播到隐藏层和输出层,这称为前向传播。:重复前向传播、损失计算和反向传播的过程,直到满足停止条件(例如,达到最大迭代次数或达到足够小的损失值)。

2023-10-12 09:59:36 287

原创 关于Opposition-Based Learning(OBL)算法

OBL 的主要概念是在搜索空间中引入对立的解,以提高搜索的多样性和全局性。它在各种应用领域都有潜在的用途,特别是在需要提高搜索全局性能和避免局部最优解的问题中具有价值。:OBL 引入了对立的解,这意味着每个候选解都有一个对立的解与之关联。对立解通常是通过一种对称性变换生成的,例如,通过取负值、翻转、旋转等方式。:在 OBL 中,搜索过程不仅考虑原始解,还考虑与之对立的解。:引入对立解可以提高搜索的全局性能,因为对立解通常位于搜索空间的不同区域。:在数据挖掘领域,OBL 可以用于聚类、分类、回归等任务。

2023-10-12 09:57:01 453

原创 关于MPA 海洋捕食者算法

这个算法受到了海洋生态系统中捕食者和被捕食者之间相互作用的启发,以一种模拟这些行为的方式来搜索解空间中的最优解。它的灵感来源于自然界中捕食者和被捕食者的互动,帮助优化问题的求解,尤其在需要全局搜索或避免陷入局部最优解的情况下表现出色。总之,MPA 算法是一种基于海洋捕食者行为的启发式优化算法,通过模拟捕食者的觅食行为来搜索解空间中的最优解。MPA 算法的工作原理受到自然界中海洋捕食者的策略启发,这些捕食者在追逐猎物时表现出的智能行为。:猎物是个体的候选解,可能包括潜在的最佳解。

2023-10-12 09:56:06 130

原创 关于Swap regret minimization(交换后悔最小化)

Swap regret minimization 的目标是通过选择最佳的决策来最小化系统在时间序列中可能发生的“交换后悔”。该算法旨在最小化在做出决策之前可能发生的“后悔”,即在知道更多信息之后,希望以不同方式做出决策。总之,Swap regret minimization 是一种在线学习算法的概念,它旨在通过最小化系统在做出决策之后可能发生的“后悔”,以提高决策的质量。:在做出决策之后,根据后续的信息,系统可以计算在选择不同决策时可能获得的更好结果。

2023-10-12 09:53:03 56

原创 关于博弈论

博弈论提供了一种形式化的方法来研究和分析决策制定者之间的竞争和合作关系。它不仅帮助我们理解和预测人们的行为,还为决策制定者提供了制定最佳策略的工具和方法,以最大化他们的利益。博弈论的应用范围广泛,对于解决现实世界中的复杂问题具有重要意义。博弈论(Game Theory)是数学和经济学中的一个分支,研究决策制定者(也称为玩家)在竞争性环境中制定策略的数学模型和方法。博弈论的主要目标是研究玩家的策略如何影响彼此的利益,以及如何找到最佳策略来达到自身的目标。

2023-10-12 09:51:56 53

原创 DVFS(Dynamic Voltage and Frequency Scaling)技术 和遗传算法的结合

遗传算法(Genetic Algorithm,GA)和动态电压频率调整(Dynamic Voltage and Frequency Scaling,DVFS)技术可以结合使用,以优化 DVFS 参数的选择,以实现更好的节能效果和性能。通过结合遗传算法和 DVFS 技术,可以寻找最佳的 DVFS 参数配置,以满足特定的优化目标。这种方法可以帮助在不同负载条件下自动调整 DVFS 参数,以实现更好的能源效率和性能。需要注意的是,适应度函数的设计和遗传算法操作的调整都是关键的,以确保算法能够有效地找到最优解。

2023-10-12 09:50:06 195

原创 关于DVFS(Dynamic Voltage and Frequency Scaling)技术

DVFS,全称是动态电压频率调整(Dynamic Voltage and Frequency Scaling),是一种能源管理技术,通常用于降低处理器和计算设备的能耗。它通过动态调整处理器的电压和频率来适应不同的工作负载需求,以实现节能和热管理。总的来说,DVFS 技术是一种用于动态管理处理器电压和频率的能源管理技术。它在各种计算设备中都有广泛的应用,可以提供能源节省、热管理和性能优化的好处,特别是在需要优化能源效率的移动设备和数据中心等领域。

2023-10-10 11:08:20 1184

原创 关于Q学习算法

Q 学习算法是一种强化学习算法,用于解决马尔可夫决策过程(Markov Decision Process,MDP)中的最优策略学习问题。其中,α是学习率(Learning Rate),γ是折扣因子(Discount Factor),s_t 和 a_t 是当前状态和动作,s_(t+1)是下一个状态,r_t 是获得的奖励。总的来说,Q 学习是一种强化学习算法,通过迭代地更新 Q 值函数来学习最优策略,使智能体能够做出在不同环境下最优的决策。Q 学习算法通过不断迭代更新 Q 值函数来学习最优策略。

2023-10-10 11:02:20 230

原创 关于DQN(Deep Q-Network)

DQN(Deep Q-Network)是深度 Q 学习(Deep Q-Learning,DQL)的一个特定实现和变种。DQN 结合了深度神经网络和 Q 学习的思想,用于解决马尔可夫决策过程(MDP)中的强化学习问题。:DQN 使用深度神经网络来估计 Q 值函数。神经网络的输入通常是状态,输出是每个可能的行动的 Q 值估计。目标网络的参数是通过周期性更新来固定的,以减少 Q 值估计与目标 Q 值之间的相关性。:DQN 遵循 Q 学习的基本原理,通过迭代地学习和更新 Q 值函数,以逼近最优 Q 值函数。

2023-10-10 09:47:47 181

原创 关于有限马尔可夫决策过程和深度 Q 学习

有限马尔可夫决策过程(Finite Markov Decision Process,MDP)和深度 Q 学习(Deep Q-Learning,DQL)之间存在密切的关系,因为 DQL 是用于解决 MDP 问题的一种方法。总之,DQL 是一种用于在有限马尔可夫决策过程中学习最优策略的方法,它借助深度神经网络来估计 Q 值函数,并通过不断地学习和改进来解决强化学习问题。因此,MDP 和 DQL 之间的关系是,DQL 是在 MDP 框架下解决问题的一种具体方法。

2023-10-10 09:46:56 77

原创 关于深度 Q 学习

深度 Q 学习(Deep Q-Learning,DQL)是一种强化学习(Reinforcement Learning,RL)方法,它结合了深度神经网络和 Q 学习算法,用于解决决策问题和控制问题。它的参数是通过周期性更新来固定的,以减少估计 Q 值与目标 Q 值之间的相关性。:深度 Q 学习使用一个 Q 值网络(也称为 Q 网络)来估计状态-动作对的 Q 值。ε是一个小的正数,以一定的概率随机选择行动,以便在不同的状态下探索未知的情况,而不仅仅是依赖于已知的最佳策略。

2023-10-10 09:45:18 226

原创 关于EL-PSOGA(Enhanced Learning Particle Swarm Optimization with Genetic Algorithm)

EL-PSOGA(Enhanced Learning Particle Swarm Optimization with Genetic Algorithm)是一种混合进化算法,结合了粒子群优化算法(PSO)和遗传算法(GA)的思想,用于解决优化问题。通过结合 PSO 和 GA 的优点,EL-PSOGA 旨在提高全局搜索性能和搜索质量,以更好地找到问题的优化解。PSO 通过粒子之间的协作来搜索最优解。:EL-PSOGA 通常具有较高的适应性,能够在不同类型的问题中表现良好,特别是对于复杂的多模态问题。

2023-10-10 09:44:14 53

原创 常见的基于搜索算法的算法

基于搜索算法的算法是一类用于解决问题的计算方法,它们通过搜索问题空间中的可能解决方案来找到最优解或满足特定条件的解。这些基于搜索算法的算法在不同类型的问题中具有广泛的应用,它们可以帮助寻找最优解、规划路径、进行参数优化、进行模式识别等多种任务。:BFS 也用于图搜索和树遍历,但与 DFS 不同,它首先探索所有相邻节点,然后逐层地向外扩展。它从深度 1 开始,逐渐增加搜索深度,以寻找最佳解决方案,同时保持 DFS 的内存效率。它模拟固体退火的过程,随着时间的推移,逐渐减小随机性,以寻找全局最优解。

2023-10-10 09:42:58 101

原创 NSGA-II和传统的遗传算法的区别

总的来说,NSGA-II 是专门针对多目标优化问题设计的演化算法,具有非支配排序、拥挤度距离和多样性维护等特性,以更好地处理多目标问题。传统的遗传算法通常用于单目标问题,并且没有这些多目标优化的特定特性。选择算法应根据问题的性质和目标的数量来确定。如果面临多目标问题,NSGA-II 等多目标优化算法可能更合适。

2023-10-10 09:41:58 467

原创 关于 NSGA-II(Non-dominated Sorting Genetic Algorithm II)算法

这个算法被设计用于找到一组解,这组解不仅是非支配的(Pareto 最优),而且在整个搜索空间中分布均匀,以便提供多个潜在的优秀解决方案。:NSGA-II 使用非支配排序技术,将种群中的解划分为不同的前沿(front)或等级(rank)。非支配解是那些不被其他解所支配的解,也就是说,在所有目标函数上都至少与一个解相等,但在某些目标上至少比一个解好。NSGA-II 倾向于保留那些具有较大拥挤度距离的解,以提供更好的解的均匀分布。在每一代中,根据非支配排序和拥挤度距离选择新的解,并删除较差的解。

2023-10-10 09:40:18 262

原创 关于离散性问题和连续性问题

需要注意的是,有些问题可能在变量类型和问题性质上具有一定的混合特征,因此在解决实际问题时,需要根据问题的具体情况选择适当的优化方法和技术。离散性问题和连续性问题是两种不同类型的优化问题,它们涉及的变量类型和问题性质有所不同。

2023-10-10 09:37:52 569

原创 关于粒子群算法(Particle Swarm Optimization,PSO)

粒子的速度和位置更新是通过考虑粒子自身的历史经验和群体的经验来实现的。通常,速度的更新包括考虑历史最佳位置和群体最佳位置,以及随机的扰动因子。速度和方向的更新是基于粒子的历史最佳位置和群体的历史最佳位置。然后检查新位置是否更好,如果是,就更新粒子的历史最佳位置和群体最佳位置。总之,粒子群算法是一种基于群体智能的优化算法,通过模拟生物群体的协作和信息共享来寻找问题的最优解,在许多优化问题中都具有实用性。: 粒子群中的所有粒子共享一个群体最佳位置,即所有粒子中历史最佳位置中的最优解。

2023-10-10 09:36:55 55

原创 关于聚类算法

DBSCAN(Density-Based Spatial Clustering of Applications with Noise):这是一种基于密度的聚类算法,它寻找密度相对较高的区域,并将它们划分为簇,同时识别噪声数据点。均值漂移聚类(Mean Shift Clustering):该算法寻找数据点周围的概率密度最大值,并将数据点移向密度最大值所在的位置,从而确定簇的中心。聚类算法的主要目标是将数据点划分为不同的簇,以便同一簇内的数据点彼此相似,而不同簇之间的数据点尽可能不相似。

2023-10-10 09:35:30 36

原创 Strength Pareto Evolutionary Algorithm(SPEA 2)

SPEA 2 算法步骤:

2023-10-10 09:34:30 273 1

原创 Double Deep Q-Network(DDQN)

传统的 Q-learning 算法估计了当前状态下的最佳动作的 Q 值,然后使用这些估计的 Q 值来指导决策。总之,Double Deep Q-Network(DDQN)框架是一种用于解决强化学习问题的先进方法,它结合了深度神经网络和双重 Q-learning,旨在提高 Q-learning 算法的稳定性和性能。其中一个网络被称为目标网络,用于估算目标 Q 值,以减少 Q 值的波动性和提高算法的稳定性。目标网络的参数定期更新以与估算网络保持同步。通常,神经网络的输入是状态,输出是每个可能的动作的 Q 值。

2023-10-10 09:32:55 802 1

原创 启发式算法的相关概念

启发式算法(Heuristic Algorithm)是一类用于解决优化问题的算法,它们是基于经验和直觉的启发式原则进行设计的,而不是依赖严格的数学证明或完整的问题描述。启发式算法在解决许多实际问题中表现出色,尤其是在面临大规模复杂优化问题时,它们提供了一种有效的方法来找到合理的解决方案。然而,需要注意的是,启发式算法的性能取决于所选择的启发式原则和算法参数,因此需要谨慎选择和调优。启发式算法通常不保证找到全局最优解,而是寻找一个近似解,它在问题的解空间中可能是一个局部最优解或次优解。

2023-10-10 08:59:48 294 1

原创 马尔可夫链和马尔可夫决策过程之间的关系

总之,虽然马尔可夫链和马尔可夫决策过程都涉及到马尔可夫性质,但它们的应用领域和目标完全不同。马尔可夫链主要用于描述状态之间的随机演化,而 MDP 用于解决决策问题,其中代理需要在不确定环境中做出决策以实现特定的目标。马尔可夫链(Markov Chain)和马尔可夫决策过程(Markov Decision Process,MDP)都涉及到马尔可夫性质,但它们的应用和目标不同。

2023-10-09 22:44:10 130 1

原创 马尔可夫链的相关概念

马尔可夫链的核心特征是马尔可夫性质,它表明系统的下一个状态只依赖于当前状态,而不受过去状态的影响。这就是说,在给定当前状态的情况下,过去的状态历史对未来状态没有影响。马尔可夫链(Markov Chain)是一种数学模型,用于描述在一系列离散时间步骤中状态随机变化的系统,其中状态的未来仅依赖于其当前状态,而不依赖于它之前的状态。这些状态可以代表任何系统的属性或特征,例如天气(晴天、雨天、多云等)、股票价格(上涨、下跌、稳定等)或分子的运动状态(高能量、低能量等)。

2023-10-09 22:43:38 164 1

原创 马尔可夫决策过程的相关概念

MDP 主要用于强化学习领域,它包括一个描述环境和系统状态的状态空间、一组可能的决策操作(称为动作空间)、一个奖励函数和一个状态转移概率函数。通常表示为 P (s’ | s, a),其中 s’表示下一个状态,s 表示当前状态,a 表示采取的动作。奖励函数通常表示为 R (s, a),其中 s 表示当前状态,a 表示采取的动作。状态空间是系统可能处于的所有状态的集合,每个状态代表系统的一个特定配置或情境。状态可以是离散的,也可以是连续的,具体取决于问题的性质。动作空间包含代理可以采取的所有可能的决策操作。

2023-10-09 22:42:50 222 1

原创 云环境中的容错工作流调度

在云环境中,容错工作流调度需要综合考虑上述挑战和优势,以制定有效的容错策略。在云环境中,容错工作流调度具有特殊的挑战和优势,这些挑战和优势与传统的本地环境不同。云环境通常提供丰富的 API 和自动化工具,容错工作流调度可以更容易地编程和自动化任务的管理、监控和调度。云环境允许创建独立的测试和开发环境,容错工作流调度可以更轻松地进行测试和模拟故障情况,以改进容错策略。云环境通常提供多个数据中心和区域,容错工作流调度可以更容易地配置备份和冗余策略,以提高可用性。

2023-10-09 22:40:57 28 1

原创 容错工作流调度

容错工作流调度的目标是最大限度地减少由于错误或故障引起的中断,并确保工作流程能够在可能的问题情况下继续运行。容错工作流调度是指在容错工作流程中安排和管理各个任务或工作单元的执行顺序和方式,以确保在发生错误或故障的情况下,工作流程能够继续执行并完成其任务。任务调度:容错工作流中的任务通常需要按照一定的顺序执行,任务调度负责确定任务的执行顺序。任务监视:容错工作流调度通常会监视任务的执行过程,以及检测到任务失败或错误时会采取的措施。备份和冗余:容错工作流调度可以利用备份和冗余策略来确保任务的执行。

2023-10-09 22:40:22 51 1

原创 容错工作流

容错工作流是一种设计用来处理系统或流程中可能出现错误或故障的工作流程。这种工作流程旨在确保即使在出现问题的情况下,系统或流程仍能够继续运行,而不会导致严重的中断或数据损失。备份和冗余:容错工作流通常包括备份和冗余组件,以确保即使一个组件或系统失败,备份组件也可以接管工作。容错工作流的目标是最大限度地减少系统中断和数据丢失的风险,提高系统的可靠性和稳定性。错误检测:容错工作流首先会检测到系统或流程中的错误或故障。这可以通过监测系统状态、检查输入数据的有效性、监视传感器数据或其他方式来实现。

2023-10-09 22:39:47 110 1

原创 Hadoop Map-Reduce 算法

Hadoop MapReduce 算法是一种用于大规模数据处理的并行计算框架,最初由 Google 的 MapReduce 模型启发,然后由 Apache Hadoop 项目实现。然而,Hadoop MapReduce 也有一些限制,例如不适合迭代算法和实时处理任务,因此,后续出现了更高级的数据处理框架,如 Apache Spark,用于解决这些问题。:虽然最初设计用于批处理任务,但 Hadoop MapReduce 也可以应用于不同类型的计算任务,包括数据清洗、日志分析、搜索引擎索引构建等。

2023-10-09 22:38:42 66 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除