bzoj 3876 [Ahoi2014]支线剧情(有上下界的最小费用流)

3876: [Ahoi2014]支线剧情

Time Limit: 10 Sec  Memory Limit: 256 MB
Submit: 484  Solved: 296
[Submit][Status][Discuss]

Description

【故事背景】
宅男JYY非常喜欢玩RPG游戏,比如仙剑,轩辕剑等等。不过JYY喜欢的并不是战斗场景,而是类似电视剧一般的充满恩怨情仇的剧情。这些游戏往往
都有很多的支线剧情,现在JYY想花费最少的时间看完所有的支线剧情。
【问题描述】
JYY现在所玩的RPG游戏中,一共有N个剧情点,由1到N编号,第i个剧情点可以根据JYY的不同的选择,而经过不同的支线剧情,前往Ki种不同的新的剧情点。当然如果为0,则说明i号剧情点是游戏的一个结局了。
JYY观看一个支线剧情需要一定的时间。JYY一开始处在1号剧情点,也就是游戏的开始。显然任何一个剧情点都是从1号剧情点可达的。此外,随 着游戏的进行,剧情是不可逆的。所以游戏保证从任意剧情点出发,都不能再回到这个剧情点。由于JYY过度使用修改器,导致游戏的“存档”和“读档”功能损 坏了,
所以JYY要想回到之前的剧情点,唯一的方法就是退出当前游戏,并开始新的游戏,也就是回到1号剧情点。JYY可以在任何时刻退出游戏并重新开始。不断开始新的游戏重复观看已经看过的剧情是很痛苦,JYY希望花费最少的时间,看完所有不同的支线剧情。

Input

输入一行包含一个正整数N。
接下来N行,第i行为i号剧情点的信息;
第一个整数为,接下来个整数对,Bij和Tij,表示从剧情点i可以前往剧
情点,并且观看这段支线剧情需要花费的时间。

Output

 输出一行包含一个整数,表示JYY看完所有支线剧情所需要的最少时间。

Sample Input

6
2 2 1 3 2
2 4 3 5 4
2 5 5 6 6
0
0
0

Sample Output

24

HINT

 JYY需要重新开始3次游戏,加上一开始的一次游戏,4次游戏的进程是


1->2->4,1->2->5,1->3->5和1->3->6。


对于100%的数据满足N<=300,0<=Ki<=50,1<=Tij<=300,Sigma(Ki)<=5000

Source

By 佚名上传

 

 

【思路】

  有上下界的费用流。

 

  用最短路算法慢得飞起=-=,等会学一下zkw费用流。

 

【代码】

 1 /**************************************************************
 2     Problem: 3876
 3     User: hahalidaxin2
 4     Language: C++
 5     Result: Accepted
 6     Time:10640 ms
 7     Memory:1856 kb
 8 ****************************************************************/
 9  
10 #include<cstdio>
11 #include<cstring>
12 #include<queue>
13 #include<vector>
14 #define FOR(a,b,c) for(int a=(b);a<=(c);a++)
15 using namespace std;
16  
17 typedef long long LL ;
18 const int maxn = 1000+10;
19 const int INF = 1e9;
20  
21 struct Edge{ int u,v,cap,flow,cost;
22 };
23  
24 struct MCMF {
25     int n,m,s,t;
26     int inq[maxn],a[maxn],d[maxn],p[maxn];
27     vector<int> G[maxn];
28     vector<Edge> es;
29      
30     void init(int n) {
31         this->n=n;
32         es.clear();
33         for(int i=0;i<n;i++) G[i].clear();
34     }
35     void AddEdge(int u,int v,int cap,int cost) {
36         es.push_back((Edge){u,v,cap,0,cost});
37         es.push_back((Edge){v,u,0,0,-cost});
38         m=es.size();
39         G[u].push_back(m-2);
40         G[v].push_back(m-1);
41     }
42      
43     bool SPFA(int s,int t,int& flow,LL& cost) {
44         for(int i=0;i<n;i++) d[i]=INF;
45         memset(inq,0,sizeof(inq));
46         d[s]=0; inq[s]=1; p[s]=0; a[s]=INF; 
47         queue<int> q; q.push(s);
48         while(!q.empty()) {
49             int u=q.front(); q.pop(); inq[u]=0;
50             for(int i=0;i<G[u].size();i++) {
51                 Edge& e=es[G[u][i]];
52                 int v=e.v;
53                 if(e.cap>e.flow && d[v]>d[u]+e.cost) {
54                     d[v]=d[u]+e.cost;
55                     p[v]=G[u][i];
56                     a[v]=min(a[u],e.cap-e.flow);        //min(a[u],..)
57                     if(!inq[v]) { inq[v]=1; q.push(v);
58                     }
59                 }
60             }
61         }
62         if(d[t]==INF) return false;
63         flow+=a[t] , cost += (LL) a[t]*d[t];
64         for(int x=t; x!=s; x=es[p[x]].u) {
65             es[p[x]].flow+=a[t]; es[p[x]^1].flow-=a[t];
66         }
67         return true;
68     }
69     int Mincost(int s,int t,LL& cost) {
70         int flow=0; cost=0;
71         while(SPFA(s,t,flow,cost)) ;
72         return flow;
73     }
74 } mc;
75  
76 int n;
77  
78 int main() {
79     scanf("%d",&n);
80     mc.init(n+2);
81     int s=0,t=n+1;
82     mc.AddEdge(t,s,INF,0);
83     FOR(u,1,n) {
84         int m,v,c; scanf("%d",&m);
85         if(u!=1) mc.AddEdge(u,1,INF,0);
86         mc.AddEdge(u,t,m,0);
87         FOR(j,1,m) {
88             scanf("%d%d",&v,&c);
89             mc.AddEdge(u,v,INF,c);
90             mc.AddEdge(s,v,1,c);
91         }
92     }
93     LL cost;
94     mc.Mincost(s,t,cost);
95     printf("%lld\n",cost);
96     return 0;
97 }
最短路算法

 


【代码2】

  1 /**************************************************************
  2     Problem: 3876
  3     User: hahalidaxin2
  4     Language: C++
  5     Result: Accepted
  6     Time:1884 ms
  7     Memory:1852 kb
  8 ****************************************************************/
  9  
 10 #include<cstdio>
 11 #include<cstring>
 12 #include<queue>
 13 #include<vector>
 14 #define FOR(a,b,c) for(int a=(b);a<=(c);a++)
 15 using namespace std;
 16  
 17 typedef long long LL ;
 18 const int maxn = 1000+10;
 19 const int INF = 1e9;
 20  
 21 struct Edge{ int u,v,cap,flow,cost;
 22 };
 23 struct zkw {
 24     int n,m,s,t;
 25     int vis[maxn],d[maxn];
 26     vector<int> G[maxn];
 27     vector<Edge> es;
 28      
 29     void init(int n) {
 30         this->n=n;
 31         es.clear();
 32         for(int i=0;i<n;i++) G[i].clear();
 33     }
 34     void AddEdge(int u,int v,int cap,int cost) {
 35         es.push_back((Edge){u,v,cap,0,cost});
 36         es.push_back((Edge){v,u,0,0,-cost});
 37         m=es.size();
 38         G[u].push_back(m-2);
 39         G[v].push_back(m-1);
 40     }
 41     bool spfa() {
 42         memset(vis,0,sizeof(vis));
 43         for(int i=0;i<n;i++) d[i]=INF;
 44         queue<int> q;
 45         d[t]=0 , vis[t]=1 , q.push(t);
 46         while(!q.empty()) {
 47             int u=q.front(); q.pop() , vis[u]=0;
 48             for(int i=0;i<G[u].size();i++) {
 49                 Edge& e=es[G[u][i]];
 50                 int v=e.v;
 51                 if(es[G[u][i]^1].cap && d[v]>d[u]-e.cost) {
 52                     d[v]=d[u]-e.cost;
 53                     if(!vis[v]) {
 54                         vis[v]=1;
 55                         q.push(v);
 56                     }
 57                 }
 58             }
 59         }
 60         return d[s]!=INF;
 61     }
 62     int dfs(int u,int a,LL& cost) {
 63         vis[u]=1;  if(u==t) return a;
 64         int used=0,w;
 65         for(int i=0;i<G[u].size();i++) {
 66             Edge& e=es[G[u][i]];
 67             int v=e.v;
 68             if(d[u]-e.cost==d[v] && !vis[v] && e.cap) {
 69                 w=dfs(v,min(a-used,e.cap),cost);
 70                 cost+=w*e.cost;
 71                 e.cap-=w , es[G[u][i]^1].cap+=w;
 72                 used+=w; if(used==a) return a;
 73             }
 74         }
 75         return used;
 76     }
 77     int Mincost(int s,int t,LL& cost) {
 78         this->s=s , this->t=t;
 79         int flow=0; cost=0;
 80         while(spfa()) {
 81             vis[t]=1;
 82             while(vis[t]) {
 83                 memset(vis,0,sizeof(vis));
 84                 flow+=dfs(s,INF,cost);
 85             }
 86         }
 87         return flow;
 88     }
 89 } mc;
 90  
 91 int n;
 92  
 93 int main() {
 94     scanf("%d",&n);
 95     mc.init(n+2);
 96     int s=0,t=n+1;
 97     mc.AddEdge(t,s,INF,0);
 98     FOR(u,1,n) {
 99         int m,v,c; scanf("%d",&m);
100         if(u!=1) mc.AddEdge(u,1,INF,0);
101         mc.AddEdge(u,t,m,0);
102         FOR(j,1,m) {
103             scanf("%d%d",&v,&c);
104             mc.AddEdge(u,v,INF,c);
105             mc.AddEdge(s,v,1,c);
106         }
107     }
108     LL cost;
109     mc.Mincost(s,t,cost);
110     printf("%lld\n",cost);
111     return 0;
112 }
zkw费用流

 

  跑稠密图的话,zkw的优化效果还是比较明显的。

 

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值