网络流24题——17.运输问题

题目链接

https://www.luogu.org/problemnew/show/P4015

运输问题

S向仓库建容量为库存,费用为0的边,商店向T建容量为需求量,费用为0的边。
仓库向商店建容量为INF,费用为费用的边,跑费用流就行了。比较简单,不解释了。

#include<cstdio>
#include<algorithm>
#include<cctype>
#include<cstring>
#include<iostream>
#define LL long long
#define INF (2139062143)
#define N (205)
using namespace std;
template <typename T> void read(T&t) {
    t=0;
    bool fl=true;
    char p=getchar();
    while (!isdigit(p)) {
        if (p=='-') fl=false;
        p=getchar();
    }
    do {
        (t*=10)+=p-48;p=getchar();
    }while (isdigit(p));
    if (!fl) t=-t;
}
int n,m,S,T,x,tot,h,t,ans; 
int data[N],head[N],nxt[N*N],a[N*N],f[N*N],fare[N*N],q[N<<2],from[N],dis[N],data2[N],map[N][N];
bool vis[N];
inline void add(int x,int y,int z,int t){
    a[++tot]=y,f[tot]=z,fare[tot]=t,nxt[tot]=head[x],head[x]=tot;
}
inline int spfa(){
    h=t=0;
    memset(dis,127,sizeof(dis));
    q[++t]=S;
    vis[S]=1;
    dis[S]=0;
    while (h<t){
        int u=q[++h];
        for (int p=head[u];~p;p=nxt[p]){
            if (f[p]&&dis[u]+fare[p]<dis[a[p]]){
                dis[a[p]]=dis[u]+fare[p];
                from[a[p]]=p;
                if (!vis[a[p]]){
                    vis[a[p]]=1;
                    q[++t]=a[p];
                }
            }
        }
        vis[u]=0; 
    }
    return dis[T];
}
inline int spfa2(){
    h=t=0;
    memset(dis,-127,sizeof(dis));
    q[++t]=S;
    vis[S]=1;
    dis[S]=0;
    while (h<t){
        int u=q[++h];
        for (int p=head[u];~p;p=nxt[p]){
            if (f[p]&&dis[u]+fare[p]>dis[a[p]]){
                dis[a[p]]=dis[u]+fare[p];
                from[a[p]]=p;
                if (!vis[a[p]]){
                    vis[a[p]]=1;
                    q[++t]=a[p];
                }
            }
        }
        vis[u]=0; 
    }
    return dis[T];
}
int main(){
    read(n),read(m);
    S=n+m+1,T=n+m+2;
    tot=1;
    memset(head,-1,sizeof(head));
    for (int i=1;i<=n;i++){
        read(data[i]);
        add(S,i,data[i],0);
        add(i,S,0,0);
    }
    for (int i=1;i<=m;i++){
        read(data2[i]);
        add(i+n,T,data2[i],0);
        add(T,i+n,0,0);
    }
    for (int i=1;i<=n;i++){
        for (int j=n+1;j<=n+m;j++){
            read(map[i][j-n]);
            add(i,j,data[i],map[i][j-n]);
            add(j,i,0,-map[i][j-n]); 
        }
    }
    while (spfa()!=dis[0]){
        int maxflow=INF,now=T;
        while (now!=S){
            maxflow=min(maxflow,f[from[now]]);
            now=a[from[now]^1]; 
        } 
        ans+=maxflow*dis[T];
        now=T;
        while (now!=S){
            f[from[now]]-=maxflow;
            f[from[now]^1]+=maxflow;
            now=a[from[now]^1];
        }
    }
    printf("%d\n",ans);
    ans=0;
    tot=1;
    memset(head,-1,sizeof(head));
    for (int i=1;i<=n;i++){
        add(S,i,data[i],0);
        add(i,S,0,0);
    }
    for (int i=1;i<=m;i++){
        add(i+n,T,data2[i],0);
        add(T,i+n,0,0);
    }
    for (int i=1;i<=n;i++){
        for (int j=n+1;j<=n+m;j++){
            add(i,j,data[i],map[i][j-n]);
            add(j,i,0,-map[i][j-n]); 
        }
    }
    while (spfa2()!=dis[0]){
        int maxflow=INF,now=T;
        while (now!=S){
            maxflow=min(maxflow,f[from[now]]);
            now=a[from[now]^1]; 
        } 
        ans+=maxflow*dis[T];
        now=T;
        while (now!=S){
            f[from[now]]-=maxflow;
            f[from[now]^1]+=maxflow;
            now=a[from[now]^1];
        }
    }
    printf("%d",ans);
    return 0;
}
解释: 1. self.epsilon = 0.1 if e_greedy_increment is not None else self.epsilon_max: 这行代码是用来设置epsilon的值。epsilon是用于控制在强化学习中探索和利用之间的平衡。如果e_greedy_increment不为None,即存在增量值,那么epsilon的初始值为0.1;否则,epsilon的初始值为self.epsilon_max。 2. self.lr_decay_rate = 0.95和self.lr_decay_step = 10000: 这两行代码是用于定义学习率的衰减速率和衰减步数。学习率衰减是为了让模型在训练过程中逐渐降低学习率,以便更好地收敛到最优解。在这里,学习率以指数衰减的方式进行更新,每经过10000个步骤,学习率会以0.95的衰减速率进行衰减。 3. self.lr = tf.train.exponential_decay(self.learning_rate, self.global_step, self.lr_decay_step, self.lr_decay_rate, staircase=True): 这行代码定义了学习率的指数衰减方式。tf.train.exponential_decay函数用于计算学习率的衰减值。其中,learning_rate是初始学习率,global_step是当前训练步数,lr_decay_step是衰减步数,lr_decay_rate是衰减速率,staircase=True表示学习率以阶梯函数的形式进行衰减。 4. self.l_r = self.learning_rate: 这行代码将初始学习率赋值给l_r,可能用于后续的学习率更新。 5. self.gama = 3、self.tau = 0.5和self.r_base = [0]: 这三行代码定义了一些参数。gama是拉格朗日乘子,用于某些优化问题中的约束条件;tau是计算reward滑动平均的参数,用于平滑reward的变化;r_base是一个包含单个元素0的列表,可能用于存储reward的基准值。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值