基于强化学习Q learning算法解决TSP问题

最终结果如下图

代码如下:

import numpy as np
import matplotlib.pyplot as plt

epsilon = 0.8
gamma = 0.1
lr = 0.1
distance = np.array([[0, 7, 6, 1, 3], [7, 0, 3, 7, 8], [6, 3, 0, 12, 11], [1, 7, 12, 0, 2], [3, 8, 11, 2, 0]])
R_table = 11 - distance
space = [0, 1, 2, 3, 4]
Q_table = np.zeros((5, 5))

# 进行训练同时测试训练成果
iterate_results = []  # 保存每次测试结果
for i in range(500):
    print(f"开始第{i + 1}回合。。。")
    # 初始位置
    path = [0]
    # 每个回合要获取4个位置
    for j in range(4):
        s = path[j]  # 当前位置
        s_row = Q_table[s]  # 当前位置对应的Q表中的行
        remain = set(space) - set(path)  # 剩余节点
        max_value = -1000
        # 在剩余节点中遍历最大值
        a = 0
        # 利用贪婪策略选择下一行动
        for rm in remain:
            Q = Q_table[s, rm]
            if Q > max_value:
                max_value = Q
                a = rm
        # 随机选择下一行动
        if np.random.uniform() < epsilon:
            a = np.random.choice(np.array(list(set(space) - set(path))))
        # 更新Q表
        if j != 3:
            Q_table[s, a] = (1 - lr) * Q_table[s, a] + lr * (R_table[s, a] + gamma * max_value)
        else:
            Q_table[s, a] = (1 - lr) * Q_table[s, a] + lr * R_table[s, a]
        path.append(a)
        Q_table[a, 0] = (1 - lr) * Q_table[a, 0] + lr * R_table[a, 0]
    # 末尾位置
    path.append(0)

    # 根据当前Q表获取最佳路径距离
    result = [0]
    for k in range(4):
        loc = result[-1]
        remain1 = set(space) - set(result)  # 剩余节点
        max_value1 = -1000
        # 在剩余节点中遍历最大值
        a = 0
        # 利用贪婪策略选择下一行动
        for v in remain1:
            Q_ = Q_table[loc, v]
            if Q_ > max_value1:
                a = v
                max_value1 = Q_
        result.append(a)
    result.append(0)
    length = 0
    for v in range(1, 6):
        length += distance[result[v - 1], result[v]]
    print(f"距离为:{length}")
    iterate_results.append(length)

# 根据Q表输出最佳路径
result = [0]
for i in range(4):
    loc = result[-1]
    remain1 = set(space) - set(result)  # 剩余节点
    max_value1 = -1000
    # 在剩余节点中遍历最大值
    a = 0
    # 利用贪婪策略选择下一行动
    for v in remain1:
        Q_ = Q_table[loc, v]
        if Q_ > max_value1:
            a = v
            max_value1 = Q_
    result.append(a)
result.append(0)
length = 0
for v in range(1, 6):
    length += distance[result[v - 1], result[v]]
print(f"最终路径安排为:{result}  距离为:{length}")

# 绘图
fig, ax = plt.subplots()
ax.plot(iterate_results)
plt.title("变化趋势图", fontproperties='SimHei', fontsize=10)
plt.xlabel("迭代次数", fontproperties='SimHei', fontsize=10)
plt.ylabel("规划路径的长度", fontproperties='SimHei', fontsize=10)
plt.show()

  • 11
    点赞
  • 43
    收藏
    觉得还不错? 一键收藏
  • 18
    评论
以下是使用Q-learning算法求解TSP问题的MATLAB代码: ```matlab % 定义城市数量 num_cities = 10; % 定义距离矩阵 D = rand(num_cities,num_cities); for i = 1:num_cities for j = 1:num_cities if i == j D(i,j) = 0; else D(i,j) = D(j,i); end end end % 定义参数 alpha = 0.1; gamma = 0.9; epsilon = 0.1; num_episodes = 1000; % 初始化Q矩阵 Q = rand(num_cities,num_cities); % 开始训练 for episode = 1:num_episodes % 随机选择一个起始城市 current_city = randi([1,num_cities]); % 初始化路径长度为0 path_length = 0; % 记录已经经过的城市 visited_cities = current_city; % 开始按照epsilon-greedy策略选择下一个城市 while length(visited_cities) < num_cities if rand() < epsilon % 随机选择一个未经过的城市 unvisited_cities = setdiff(1:num_cities,visited_cities); next_city = unvisited_cities(randi([1,length(unvisited_cities)])); else % 选择Q值最大的未经过的城市 Q_values = Q(current_city,:); Q_values(visited_cities) = -inf; [~,next_city] = max(Q_values); end % 更新路径长度和已经经过的城市 path_length = path_length + D(current_city,next_city); visited_cities = [visited_cities,next_city]; % 更新Q矩阵 Q(current_city,next_city) = Q(current_city,next_city) + alpha*(D(current_city,next_city) + gamma*max(Q(next_city,:)) - Q(current_city,next_city)); % 转移到下一个城市 current_city = next_city; end % 回到起始城市 path_length = path_length + D(current_city,visited_cities(1)); % 输出本次训练的结果 fprintf('Episode %d: Path Length = %f\n',episode,path_length); end % 输出最优路径 [~,start_city] = min(sum(D)); current_city = start_city; path_length = 0; visited_cities = current_city; while length(visited_cities) < num_cities [~,next_city] = max(Q(current_city,:)); path_length = path_length + D(current_city,next_city); visited_cities = [visited_cities,next_city]; current_city = next_city; end path_length = path_length + D(current_city,start_city); fprintf('Optimal Path Length = %f\n',path_length); ``` 以上代码中,首先定义了城市数量和距离矩阵。然后定义了Q-learning算法的参数,包括学习率alpha、折扣因子gamma、探索率epsilon和训练轮数num_episodes。接着初始化Q矩阵,并开始训练。每轮训练中,随机选择一个起始城市,并按照epsilon-greedy策略选择下一个城市,根据Q-learning算法更新Q矩阵。训练结束后,选择一个起始城市,并按照Q值最大的规则选择下一个城市,输出最优路径长度。 需要注意的是,由于TSP问题是NP难问题,Q-learning算法可能无法得到全局最优解。因此,代码中只能保证得到的结果是一种较优的解,而不是最优解。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 18
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值