有上下界的网络流1-无源汇带上下界网络流SGU194

今天开始啃网络流了。对于求解无源汇带上下界的网络流,我们可以这样建图:
建图模型: 
        以前写的最大流默认的下界为0,而这里的下界却不为0,所以我们要进行再构造让每条边的下界为0,这样做是为了方便处理。对于每根管子有一个上界容量up和一个下界容量low,我们让这根管子的容量下界变为0,上界为up-low。可是这样做了的话流量就不守恒了,为了再次满足流量守恒,即每个节点"入流=出流”,我们增设一个超级源点st和一个超级终点sd。我们开设一个数组du[]来记录每个节点的流量情况。

du[i]=in[i](i节点所有入流下界之和)-out[i](i节点所有出流下界之和)。

当du[i]大于0的时候,st到i连一条流量为du[i]的边。

当du[i]小于0的时候,i到sd连一条流量为-du[i]的边。

最后对(st,sd)求一次最大流即可,当所有附加边全部满流时,有可行解。
(我们默认了图中每条边已经有了最小的流量,可是现在的图中的点 入流不等于出流,于是我们通过附加边使得:
       1. 超级源点 连接到 入流大于出流的点,以增大该点的出流,使实际流量平衡(实际流量为最小流量+当前流量,并且不算超级源点和汇点的流量)。
       2.出流大于入流的点 连接到 超级汇点,以增大该点的入流(因为该点可以把流量全部排到超级汇点,所以可以有跟多的流量流入该点),使实际流量平衡。

注意:无源汇带上下界的网络流中 求出来的网络流是个循环体,即虽然没有源点汇点但内部的点都保持流量守恒。
            且该算法仅能求出一个可行解,最终得到的网络流并不能保证是最大流。


SGU194题目大意:
给n个点,及m根pipe,每根pipe用来流躺液体的,单向的,每时每刻每根pipe流进来的物质要等于流出去的物质,要使得m条pipe组成一个循环体,里面流躺物质。并且满足每根pipe一定的流量限制,范围为[Li,Ri].即要满足每时刻流进来的不能超过Ri(最大流问题),同时最小不能低于Li。
今晚RP不错,一遍就AC。
下面是我的代码:

 1 #include<iostream>
 2 #include<cstdio>
 3 #include<cstdlib>
 4 #include<algorithm>
 5 #include<vector>
 6 #include<queue>
 7 #include<cstring>
 8 #define maxn 0x7fffffff
 9 using namespace std;
10 struct edge{int to,cap,rev,num;};
11 int flow[100000],ch[250],du[250];
12 vector <edge> E[250];
13 int st,sd,n,m;
14 void Add_Edge(int from,int to,int cap,int num){
15      edge t;t.num=num*2;
16      t.to=to,t.cap=cap,t.rev=E[to].size();
17      E[from].push_back(t);
18      t.num=num*2+1;
19      t.to=from,t.cap=0,t.rev=E[from].size()-1;
20      E[to].push_back(t);
21 }
22 bool bfs(){
23      queue <int> que;
24      memset(ch,-1,sizeof(ch));
25      ch[st]=0;que.push(st);
26      while(que.size()){
27                      int t=que.front();que.pop();
28                      for(int i=0;i<E[t].size();i++){
29                              if(E[t][i].cap && ch[E[t][i].to]<0) {
30                                             ch[E[t][i].to]=ch[t] + 1;
31                                             que.push(E[t][i].to);
32                              }
33                      }
34      }
35      return (ch[sd]>-1);
36 }
37 int dfs(int v,int f){
38      int r=0;
39      if(v==sd) return f;
40      for(int i=0;i<E[v].size();i++){
41              if(f==0) return r;
42              edge &t=E[v][i];
43              if(ch[t.to]==ch[v]+1 && t.cap>0) {
44                                   int u=dfs(t.to,min(t.cap,f));
45                                   t.cap-=u;E[t.to][t.rev].cap+=u;
46                                   f-=u;r+=u;
47              }
48      }
49      return r;
50 }
51 int dinic(){
52     int flow_sum=0;
53     while(bfs())  flow_sum+=dfs(st,maxn);
54     return flow_sum;
55 }                                 
56       
57 int main(){
58     int a,b,maxx,minn;
59     scanf("%d%d",&n,&m);
60     for(int i=0;i<m;i++){
61             scanf("%d%d%d%d",&a,&b,&minn,&maxx);
62             flow[i+1]=minn;
63             du[a]-=minn;du[b]+=minn;
64             Add_Edge(a,b,maxx-minn,i+1);        
65     }
66     st=0;sd=n+1;
67     for(int i=1;i<=n;i++){
68             if(du[i]>0)  Add_Edge(st,i,du[i],0);
69             if(du[i]<0)  Add_Edge(i,sd,-du[i],0);
70     }
71     dinic();
72     bool flag=true;
73     for(int i=st;i<=sd;i++){
74             for(int j=0;j<E[i].size();j++){
75                     int k=E[i][j].num;
76                     if(k%2==1){
77                                k=k/2;
78                                if(1<=k && k<=m) flow[k]+=E[i][j].cap;
79                     }
80                     else{
81                          if(k==0 && E[i][j].cap>0) flag=false;
82                     }
83                     
84             }
85     }
86     if(flag){
87              printf("YES\n");
88              for(int i=1;i<=m;i++) printf("%d\n",flow[i]);
89     }
90     else{
91          printf("NO\n");
92     }
93     return 0;
94 }

 

posted on 2017-03-16 22:14 学无止境-1980 阅读( ...) 评论( ...) 编辑 收藏

转载于:https://www.cnblogs.com/rdzrdz-acm/p/6561935.html

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值