优化算法:1.遗传算法(GA)及Python实现

一、定义

        遗传算法就像是在模拟“优胜劣汰”的进化过程,通过选择最优秀的个体,交配产生下一代,并引入一定的变异,逐步优化解决问题。

二、具体步骤

  1. 初始化种群(Initialization):

    假设你要找到一个迷宫的最佳出口路径。首先,你随机生成一群“路径”作为初始种群(就像是一群随机的迷宫探险者)。     

    生成初始种群 P(0),其中 P(0)={x1​,x2​,…,xN​}。每个个体x_i是一个解的候选向量,随机生成。

    P(0) = \{ \mathbf{x}_1, \mathbf{x}_2, \ldots, \mathbf{x}_N \}

  2. 计算适应度(Fitness Calculation):

    每条路径都有一个“适应度”,代表了它的好坏。比如,走的距离短、碰到的墙少的路径适应度更高。

    对种群中的每个个体,计算其适应度值 f(\mathbf{x}_i),适应度函数 f 用于评估个体的优劣。

    f(\mathbf{x}_i), \quad \text{for} \quad \mathbf{x}_i \in P(t)

  3. 选择 (Selection):

    根据适应度选择一些表现最好的路径。适应度高的路径被选中的概率更大(就像在自然界中适应环境的生物更容易生存)。

    根据适应度值选择个体,以组建下一代。常用的方法包括轮盘赌选择、排序选择等。假设用轮盘赌选择,每个个体被选择的概率为:

    p_i = \frac{f(\mathbf{x}_i)}{\sum_{j=1}^N f(\mathbf{x}_j)}

  4. 交叉(交配)(Crossover):

    选择出来的好路径进行“交配”,生成新的路径(下一代)。交配的过程类似于把两条路径的不同部分组合在一起,形成新的路径。

    从选出的个体中随机配对进行交叉,生成新的子代。假设单点交叉,两个个体 x1​ 和 x2​ 在位置  k 进行交叉生成新个体:

    \mathbf{x}_1' = (\mathbf{x}_{1,1}, \mathbf{x}_{1,2}, \ldots, \mathbf{x}_{1,k}, \mathbf{x}_{2,k+1}, \ldots, \mathbf{x}_{2,n})

    \mathbf{x}_2' = (\mathbf{x}_{2,1}, \mathbf{x}_{2,2}, \ldots, \mathbf{x}_{2,k}, \mathbf{x}_{1,k+1}, \ldots, \mathbf{x}_{1,n})

  5. 变异 (Mutation):

    在新生成的路径中,随机改变一些部分(变异)。比如,某条路径的某一步骤突然改变方向。这就像是自然界中的基因突变。

    对新个体进行变异操作,即随机改变个体的某些基因。假设变异在第 j 个位置,对 xi​ 变异后得到 xi′​:

    \mathbf{x}_i' = (\mathbf{x}_{i,1}, \mathbf{x}_{i,2}, \ldots, \mathbf{x}_{i,j-1}, \mathbf{x}_{i,j}', \mathbf{x}_{i,j+1}, \ldots, \mathbf{x}_{i,n})

    其中 \mathbf{x}_{i,j}' 是变异后的值。

  6. 重复(Iteration):

    重复上述过程多次,每次都选择最好的路径进行交配和变异。经过若干代的进化,路径会越来越接近理想的解决方案。

    重复步骤2到5,直到满足终止条件(如达到最大迭代次数或适应度满足某个阈值)。

    P(t+1) = \text{Selection}(\text{Crossover}(\text{Mutation}(P(t))))

三、例子

        想象你在一个迷宫里找出口,你和一群朋友决定用遗传算法来找最快的路。

  1. 第一步:每个人随便走一条路,大家都出发了。
  2. 第二步:回来后,大家比较谁走的路最短,谁碰到的障碍最少。
  3. 第三步:选出几个走得最好的朋友,让他们把自己的路线告诉大家。
  4. 第四步:大家根据好朋友的路线,进行一些组合和调整,再次出发。
  5. 第五步:有时候,你们会决定“赌一把”,随便改变下路线中的某个部分,希望能找到更好的路。
  6. 第六步:重复这个过程,经过多次尝试,你们最终找到了迷宫的最佳出口路径。

四、Python示例

        举一个简单的例子,我们不妨用遗传算法优化一个一维二次函数 x^2。这个函数在数学上是一个凸函数,其最小值为 0,出现在 x=0 处。尽管简单,但它展示了遗传算法的基本原理和步骤,包括种群初始化、适应度评估、选择、交叉和变异等。可以直观地理解遗传算法是如何通过迭代逐步逼近最优解的。我已将详细的注释写在了代码中。

import numpy as np
import matplotlib.pyplot as plt


# 定义目标函数
# 最小化的函数是 x^2
def fitness(x):
    return x ** 2


# 初始化种群
# 生成一个大小为 size 的种群,每个个体的值在 bounds 范围内。生成的是一个二维数组,每个个体是一个一维数组
def initialize_population(size, bounds):
    return np.random.uniform(bounds[0], bounds[1], (size, 1))


# 选择个体(轮盘赌选择)
# 基于个体的适应度值进行选择。适应度值越低的个体被选择的概率越高(因为我们在最小化函数)
def selection(pop, fitness_values):
    total_fitness = np.sum(fitness_values)  # 所有个体的总适应度值
    probabilities = fitness_values / total_fitness  # 每个个体被选择的概率
    indices = np.random.choice(len(pop), size=len(pop), p=probabilities.flatten())  # 根据这些概率随机选择个体,生成新的种群
    return pop[indices]


# 交叉操作(单点交叉)
def crossover(pop, crossover_rate=0.7):
    offspring = []
    for i in range(0, len(pop), 2):  # 以步长为2遍历种群
        parent1, parent2 = pop[i], pop[i + 1]  # 随机选择两个父代
        if np.random.rand() < crossover_rate and parent1.size > 1:  # 如果随机数小于交叉概率且父代长度大于1
            cross_point = np.random.randint(1, parent1.size)  # 选择一个交叉点
            child1 = np.concatenate([parent1[:cross_point], parent2[cross_point:]])  # 在该点进行单点交叉生成两个子代
            child2 = np.concatenate([parent2[:cross_point], parent1[cross_point:]])
        else:  # 如果不满足交叉条件,直接复制父代作为子代。
            child1, child2 = parent1, parent2
        offspring.append(child1)
        offspring.append(child2)
    return np.array(offspring)


# 变异操作(简单变异)
def mutation(pop, mutation_rate=0.01, bounds=(-10, 10)):
    for i in range(len(pop)):
        if np.random.rand() < mutation_rate:  # 如果随机数小于变异概率
            mut_point = np.random.randint(0, pop[i].size)  # 随机选择该个体中的一个基因位置
            pop[i][mut_point] = np.random.uniform(bounds[0], bounds[1])
    return pop


# 主遗传算法流程
def genetic_algorithm(pop_size, bounds, num_generations, crossover_rate, mutation_rate):
    # 初始化种群
    pop = initialize_population(pop_size, bounds)
    best_solutions = []

    for gen in range(num_generations):
        # 计算适应度
        fitness_values = fitness(pop)

        # 选择
        selected_pop = selection(pop, fitness_values)

        # 交叉
        offspring = crossover(selected_pop, crossover_rate)

        # 变异
        pop = mutation(offspring, mutation_rate, bounds)

        # 保存当前代的最佳个体
        best_solutions.append(np.min(fitness_values))

    return pop, best_solutions


# 参数设置
pop_size = 5000  # 种群大小  增大种群规模: 5000->100000
bounds = (-10, 10)  # 每个个体的取值范围
num_generations = 200  # 遗传算法运行的代数 增加迭代次数: 100->200
crossover_rate = 0.7  # 交叉概率
mutation_rate = 0.01  # 变异概率  增加变异率以增加多样性: 0.01->0.05


# 运行遗传算法
final_pop, best_solutions = genetic_algorithm(pop_size, bounds, num_generations, crossover_rate, mutation_rate)

# 绘制结果
plt.plot(best_solutions)
plt.xlabel('Generation')
plt.ylabel('Fitness (Minimized Value of x^2)')
plt.title('Genetic Algorithm Optimization')
plt.show()

# 输出最终的最佳解
best_individual = final_pop[np.argmin(fitness(final_pop))]
print("Best solution found:", best_individual)
print("Fitness of the best solution:", fitness(best_individual))

       结果如下:

Best solution found: [0.09278514]
Fitness of the best solution: [0.00860908]

        该结果已经找到了一个较精确的解,接近全局最优解(即 x=0)。我们不妨将 pop_size 增大到 10000,以覆盖更大的搜索空间;将 num_generations 增加到 400,让算法有更多时间收敛;将 mutation_rate 增加到 0.05,以增加种群的多样性,经过漫长的等待,会得到一个更加精确的结果。

Best solution found: [-0.01888039]
Fitness of the best solution: [0.00035647]

        若要进一步提高算法的表现,我们还可以尝试以下几种改进方法:

  1. 调整选择策略:使用锦标赛选择等替代选择策略。
  2. 增加种群多样性:引入精英保留策略,将最优个体直接保留到下一代。
  3. 检查适应度函数:确保适应度函数正确计算。
  4. 调整初始化种群范围:可能初始化范围太大导致搜索空间过于分散。
  • 8
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值