http://acm.hdu.edu.cn/showproblem.php?pid=4307
我咋感觉就是网络流呢?不是最后转化为网络流了吗?
这篇文章解释地很好:http://www.cnblogs.com/staginner/archive/2012/08/13/2636826.html
从本质上讲,之所以能够用最大流解决这个问题,关键在于最大流可以求解下面这个函数的最小值:
接下来就分析一下如何用最大流求解上面这个函数的极值。
首先xi一共只有两种选择,那么最终可以按xi的取值将xi划分成两个集合,那么如果xi在值为1的集合里,xj在值为0的集合里,那么就会产生一个代价cij。同时如果xi选择0就会产生一个bi的代价,如果xi选择1就会产生一个ai的代价。
于是构造一个源点S,汇点T做最小割,不妨假设做完最小割之后值为1的xi的集合是和S相连的部分,值为0的xi的集合是和T相连的部分。
由于表达式中有三项,我们用三种割边来分别描述这三项的值。一种是xi选择了1,这样就不能选择0,需要把xi-T这条边割掉,由于xi选择1会产生ai的代价,那么就把这条边的容量设为ai。另一种是xi选择了0,这样就不能选择1,需要把S-xi这条边割掉,由于xi选择0会产生bi的代价,那么就把这条边的容量设为bi。最后一种是xi选择了1,xj选择了0,这样xi和xj不能在同一个集合中,需要把xi-xj这条边割掉,由于xi选择1,xj选择0产生cij的代价,那么就把这条边的容量设为cij。
这样对建好的图做最小割就可以得到上面哪个函数的最小值。
接着我们分析这个题目如何转化成上面这种模型。
首先我们将D的表达式赤裸裸地写出来:
这种形式必然不能看出来和上面那个表达式有什么关系,于是我们继续将其化简:
如果令f等于最后一行括号里的内容,那么发生了什么?如果ai选择0会产生sum{bij}(1<=j<=N)的代价,如果ai选择1会产生ci的代价,如果ai选择1且aj选择0就会产生bij的代价。这样就完全转化成了上面的模型,具体的做法就不再重复说明了。
#include<stdio.h>
#include<string.h>
#include<algorithm>
#define MAXD 1010
#define MAXM 2004010
#define INF 0x7fffffff
int N, first[MAXD], e, v[MAXM], next[MAXM], flow[MAXM];
int S, T, d[MAXD], q[MAXD], work[MAXD];
long long SUM;
void add(int x, int y, int z)
{
v[e] = y, flow[e] = z;
next[e] = first[x], first[x] = e ++;
}
void init()
{
int i, j, x, a;
scanf("%d", &N);
S = 0, T = N + 1;
memset(first, -1, sizeof(first[0]) * (T + 1));
SUM = e = 0;
for(i = 1; i <= N; i ++)
{
a = 0;
for(j = 1; j <= N; j ++)
{
scanf("%d", &x), a += x;
add(i, j, x), add(j, i, 0);
}
SUM += a;
add(S, i, a), add(i, S, 0);
}
for(i = 1; i <= N; i ++)
{
scanf("%d", &x);
add(i, T, x), add(T, i, 0);
}
}
int bfs()
{
int i, j, rear = 0;
memset(d, -1, sizeof(d[0]) * (T + 1));
d[S] = 0, q[rear ++] = S;
for(i = 0; i < rear; i ++)
for(j = first[q[i]]; j != -1; j = next[j])
if(flow[j] && d[v[j]] == -1)
{
d[v[j]] = d[q[i]] + 1, q[rear ++] = v[j];
if(v[j] == T) return 1;
}
return 0;
}
int dfs(int cur, int a)
{
if(cur == T)
return a;
for(int &i = work[cur]; i != -1; i = next[i])
if(flow[i] && d[v[i]] == d[cur] + 1)
if(int t = dfs(v[i], std::min(a, flow[i])))
{
flow[i] -= t, flow[i ^ 1] += t;
return t;
}
return 0;
}
long long dinic()
{
long long ans = 0;
while(bfs())
{
memcpy(work, first, sizeof(first[0]) * (T + 1));
while(int t = dfs(S, INF))
ans += t;
}
return ans;
}
void solve()
{
printf("%lld\n", SUM - dinic());
}
int main()
{
int t;
scanf("%d", &t);
while(t --)
{
init();
solve();
}
return 0;
}