题目描述
写一个程序来模拟操作系统的进程调度。假设该系统只有一个CPU,每一个进程的到达时间,执行时间和运行优先级都是已知的。其中运行优先级用自然数表示,数字越大,则优先级越高。
如果一个进程到达的时候CPU是空闲的,则它会一直占用CPU直到该进程结束。除非在这个过程中,有一个比它优先级高的进程要运行。在这种情况下,这个新的(优先级更高的)进程会占用CPU,而老的只有等待。
如果一个进程到达时,CPU正在处理一个比它优先级高或优先级相同的进程,则这个(新到达的)进程必须等待。
一旦CPU空闲,如果此时有进程在等待,则选择优先级最高的先运行。如果有多个优先级最高的进程,则选择到达时间最早的。
输入输出格式
输入格式:
输入包含若干行,每一行有四个自然数(均不超过10^8),分别是进程号,到达时间,执行时间和优先级。不同进程有不同的编号,不会有两个相同优先级的进程同时到达。输入数据已经按到达时间从小到大排序。输入数据保证在任何时候,等待队列中的进程不超过15000个。
输出格式:
按照进程结束的时间输出每个进程的进程号和结束时间。
输入输出样例
输入样例#1:
1 1 5 3
2 10 5 1
3 12 7 2
4 20 2 3
5 21 9 4
6 22 2 4
7 23 5 2
8 24 2 4
输出样例#1:
1 6
3 19
5 30
6 32
8 34
4 35
7 40
2 42
解题思路
用一个数组t[]存进程i还需要多少时间才能完成,把进程i的编号,开始时间,优先级打包成结构体放进优先队列。使根为优先级最高,且开始时间最早的。将now_time初始化为0,然后开始输入数据,用gap = 当前输入进程x的开始时间s - now_time,在下次循环前将now_time = s。gap就是x进入前,已经在排队的进程肯定还可以运行的时间。循环让这些时间都花完,除非队列为空了。若t[i]为0了,pop并则输出i。等输入完成,剩下的进程就不用再关心被突然插队了,按照优先级和到达时间一个个计算输出即可。
代码如下
#include <iostream>
#include <queue>
#include <cstdio>
#include <vector>
#define maxn 1000005
using namespace std;
struct node{
int n, s, r;
node(int n, int s, int r): n(n), s(s), r(r){ }
bool operator<(const node& a)const{
if(r != a.r)
return r < a.r;
else
return s > a.s;
}
};
priority_queue<node> que;
int tme[maxn];
int main()
{
int n, s, t, r;
int now_time = 0;
while(scanf("%d%d%d%d", &n, &s, &t, &r) != EOF){
if(!que.empty()){
node top = que.top();
int gap = s - now_time;
while(gap > 0 && !que.empty()){
if(gap >= tme[top.n]){
gap -= tme[top.n];
tme[top.n] = 0;
printf("%d %d\n", top.n, s - gap);
que.pop();
if(!que.empty())
top = que.top();
}
else {
tme[top.n] -= gap;
gap = 0;
}
}
}
que.push(node(n, s, r));
now_time = s;
tme[n] = t;
}
while(!que.empty()){
node top = que.top();
que.pop();
now_time += tme[top.n];
printf("%d %d\n", top.n, now_time);
}
return 0;
}