随机算法 —— 模拟退火

模拟退火例题:CodeVS: P1344 

有 N ( <=20 ) 台 PC 放在机房内,现在要求由你选定一台 PC,用共 N-1 条网线从这台机器开始一台接一台地依次连接他们,最后接到哪个以及连接的顺序也是由你选定的,为了节省材料,网线都拉直。求最少需要一次性购买多长的网线。(说白了,就是找出 N 的一个排列 P1 P2 P3 ..PN 然后 P1 -> P2 -> P3 -> ... -> PN 找出 |P1P2|+|P2P3|+...+|PN-1PN| 长度的最小值)

这种问题被称为最优组合问题。传统的动态规划算法O(n22n)在n = 20的情况下空间、时间、精度都不能满足了。这时应该使用比较另类的算法。随机化算法在n比较小的最优化问题表现较好,我们尝试使用随机化算法。

#include<cstdio>
#include<cstdlib>
#include<ctime>
#include<cmath>
#include<algorithm>

const int maxn = 21;
double x[maxn], y[maxn];
double dist[maxn][maxn];
int path[maxn];
int n;
double path_dist(){
    double ans = 0;
    for(int i = 1; i < n; i++) {
        ans += dist[path[i - 1]][path[i]];
    }
    return ans;
}
int main(){
    srand(19260817U);                            // 使用确定的种子初始化随机函数是不错的选择 
    scanf("%d", &n);
    for(int i = 0; i < n; i++) scanf("%lf%lf", x + i, y + i);
    for(int i = 0; i < n; i++) for(int j = i + 1; j < n; j++) dist[i][j] = dist[j][i] = hypot(x[i] - x[j], y[i] - y[j]);
    
    for(int i = 0; i < n; i++) path[i] = i;        // 获取初始排列 
    double ans = path_dist();                    // 初始答案 
    int T = 30000000 / n;                         // 单次计算的复杂度是O(n),这里的30000000是试出来的 
    while(T--){
        std::random_shuffle(path, path + n);    // 随机打乱排列 
        ans = std::min(ans, path_dist());        // 更新最小值 
    }
    printf("%.2lf", ans);
}

    可惜的是,这个算法只能拿50分。使用O(n!)枚举排列和使用上述算法没有太大的不同。从解的角度分析,假如某一次计算尝试出了一个比较好的路径,那么最优的路径很可能可以在原基础上作一两次改动就可以得到,这时候完全打乱整个序列不是一个很好的选择。

  另一个方法:根据原序列生成一个新的序列,然后交换新序列的任意两个数。假如说新生成的序列更优,则使用新序列继续计算,否则序列不变。

  这个算法就是局部搜索法(爬山法)。可惜,这个算法不正确。这个算法只顾眼前,忽略了大局,只要更优便走,这样可能会造成“盯着眼前的小山包,忽略远处的最高峰”,找到的值往往只是“局部最优值”。当然——这个方法也并不是完全不正确。我们可以多次计算使用上述方法计算,取最值。这里不再赘述。

  下面介绍退火算法(SA,Simulated Annealing)。

  首先拿爬山做例子:我们要找到山脉的最高峰,但是我(计算机)只能看到我的脚下哪边是上升的,哪边是下降的,看不到远处是否上升。每次移动,我们随机选择一个方向。如果这个方向是上升的的(更优),那么就决定往那个方向走;如果这个方向是下降的(更差),那么“随机地接受”这个方向,接受就走,不接受就再随机一次——这个随机是关键,要考虑很多因素。比如,一个陡的下坡的接受率要比一个缓的下坡要小(因为陡的下坡后是答案的概率小);同样的下降坡度,接受的概率随时间降低(逐渐降低才能趋向稳定)。

  为什么要接受一个更差的解呢?如下图所示:

 

  如果坚决不接受一个更差的解,那么就会卡在上面的“当前位置”上了。倘若接受多几次更差的解,让他移动到山谷那里,则可以突破局部最优解,得到全局最优解。

既然这个随机这么重要,那么我们就将它写为一个函数:

bool accept(double delta, double temper){
    if(delta <= 0) return true;
    return rand() <= exp((-delta) / temper) * RAND_MAX;
} 

    其中delta是新答案的变化量,temper是当前的“温度”。温度是模拟退火算法的一个重要概念,它随时间的推移缓慢减小。我们来分析一下这个代码:

if(delta <= 0) return true;

  由于答案越小越优,因此当温度的变化量小于零(新答案减小)时,新解比旧解优,因此返回“接受”

return rand() <= exp((-delta) / temper) * RAND_MAX;

  RAND_MAX是rand()的最大值。为了保证跨平台、跨编译器甚至跨版本时的正常运作,我们不对其作出任何假定。

  我们把它移项:return (double)rand() / RAND_MAX <= exp((-delta) / temper)。在右边,temper是正数,delta是正数(delta是负数的已经return出去了),因此exp()中间的参数是负数。我们知道,指数函数在参数是负数时返回(0, 1)——这就是接受的概率。我们在左边随机一个实数,如果它比概率小,就接受,否则就不接受。

  然后将RAND_MAX移到右边,以省下昂贵的除法成本和避免浮点数的各种陷阱。

  有了接受函数,就可以写计算过程了:

   

double solve(){
    const double max_temper = 10000;
    double temp = max_temper;
    double dec = 0.999;
    Path p;
    while(temp > 0.1){
        Path p2(p);
        if(accept(p2.dist() - p.dist(), temp)) p = p2;
        temp *= dec;
    }
    return p.dist();
}

    其中Path是路径,它有一个构造函数是接受另一个Path类型的对象,然后交换其中两个点的顺序。

struct Path{
    City path[maxn];
    
    Path(){
        F(i, n) path[i] = citys[i];
    }
    
    Path(const Path& p):path(p.path){
        swap(path[rand() % n], path[rand() % n]);
    }
    
    void shuffle(){
        random_shuffle(path, path + n);
    } 
    
    double dist(){
        double ans = 0;
        for(int i = 1; i < n; i++){
            ans += path[i - 1].distTo(path[i]);
        }
        return ans;
    }
};

     其实本代码在很多地方写复杂了,比如累赘的City类。在比赛中,我们不会写得如此复杂。下面对其简化:

#include<cstring>
#include<cmath>
#include<algorithm>
#include<iostream>
#include<cstdio>
using namespace std;

const int maxn = 21;
int n;
double x[maxn], y[maxn];
double dist[maxn][maxn];

struct Path{
    int path[maxn];
    
    Path(){
        for(int i = 0; i < n; i++) path[i] = i;
    }
    
    Path(const Path& p){
        memcpy(path, p.path, sizeof path);
        swap(path[rand() % n], path[rand() % n]);
    }
    
    double dist(){
        double ans = 0;
        for(int i = 1; i < n; i++){
            ans += ::dist[path[i - 1]][path[i]];
        }
        return ans;
    }
};



bool accept(double delta, double temper){
    if(delta <= 0) return true;
    return rand() <= exp((-delta) / temper) * RAND_MAX;
} 

double solve(){
    const double max_temper = 10000;
    const double dec = 0.999;
    double temp = max_temper;
    Path p;
    while(temp > 0.01){
        Path p2(p);
        if(accept(p2.dist() - p.dist(), temp)) p = p2;
        temp *= dec;
    }
    return p.dist();
}

int main(){
    srand(19260817U);
    cin >> n;
    for(int i = 0; i < n; i++) {
        scanf("%lf%lf", x + i, y + i);
    }
    for(int i = 0; i < n; i++){
        dist[i][i] = 0;
        for(int j = i + 1; j < n; j++){
            dist[i][j] = dist[j][i] = hypot(x[i] - x[j], y[i] - y[j]);
        }
    }
    double ans = 1./0;
    int T = 155;
    while(T--){
        ans = min(ans, solve());
    }
    printf("%.2lf", ans);
}

    交上去就可以AC了。

  由于随机化算法有一定不稳定性,这里要多次调用计算过程取最小值。T=155就是外循环次数。

  值得注意的是,T=15就可以过80%的数据,T=42可以过完全部数据,此时最大数据运行时间为86ms。这里T取155是保险起见,毕竟时间足够。

  上面的代码仍有改进的余地。比如,在solve()函数中,应当把最优解记下来,在返回解时返回记下的那个最优解,免得跳到了某些差解后返回差解。

  下面是一张表供大家估算运行时间,左边是“降温系数”,上方是初温与末温的比值,表格内容是大致的迭代次数。

  从上表可以看出,增加十倍的初温与末温比值只会增加约25%的迭代次数,而往0.9…99的后面加个9会增加十倍的运行时间。

  除了记忆上表外,我们还可以通过记录退火次数(将tot初始化为零,每次产生新解时tot++,计算完后看看tot)或者使用计算器计算退火次数。计算后选择一个合适的外循环次数。

  除此之外,我们还要根据数据规模,灵活地调整初温、末温与降温系数。一般来说,初温不宜太大,否则会让前几次迭代接受了很差的解,浪费时间;降温系数不宜过大,否则会让算法过早稳定,不能找到最优值;同样,降温系数也不宜太高(更不能大于1,不然温度越来越高),否则可能会超时。

  在正式使用中还有些技巧,如每次降温后,做足够多次计算后才再次降温(内循环),这对算法准确性没有太大影响。

  除了模拟退火外,还有不少随机化算法。比如遗传算法、蚁群算法,这些算法被称为“元启发算法”,有兴趣的读者可以查阅相关资料。




评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值