题目描述
写一个程序来模拟操作系统的进程调度。假设该系统只有一个CPU,每一个进程的到达时间,执行时间和运行优先级都是已知的。其中运行优先级用自然数表示,数字越大,则优先级越高。
如果一个进程到达的时候CPU是空闲的,则它会一直占用CPU直到该进程结束。除非在这个过程中,有一个比它优先级高的进程要运行。在这种情况下,这个新的(优先级更高的)进程会占用CPU,而老的只有等待。
如果一个进程到达时,CPU正在处理一个比它优先级高或优先级相同的进程,则这个(新到达的)进程必须等待。
一旦CPU空闲,如果此时有进程在等待,则选择优先级最高的先运行。如果有多个优先级最高的进程,则选择到达时间最早的。
输入输出格式
输入格式:
输入包含若干行,每一行有四个自然数(均不超过10^8),分别是进程号,到达时间,执行时间和优先级。不同进程有不同的编号,不会有两个相同优先级的进程同时到达。输入数据已经按到达时间从小到大排序。输入数据保证在任何时候,等待队列中的进程不超过15000个。
输出格式:
按照进程结束的时间输出每个进程的进程号和结束时间。
输入输出样例
输入样例#1:
1 1 5 3
2 10 5 1
3 12 7 2
4 20 2 3
5 21 9 4
6 22 2 4
7 23 5 2
8 24 2 4
输出样例#1:
1 6
3 19
5 30
6 32
8 34
4 35
7 40
2 42
1A了好开心!这就是个堆的模板题 对于添加的元素 首先判断优先级。若低于top 入队。若高于当前top则需要判断该元素入队时间与top的出队时间。
#include<cstdio>
#include<queue>
#include<iostream>
using namespace std;
struct FUCK
{
int id,re,ti,pr;
FUCK(int id=0,int re=0,int ti=0,int pr=0):
id(id),re(re),ti(ti),pr(pr){};
};
bool operator <(FUCK a,FUCK b)
{
if (a.pr!=b.pr) return a.pr<b.pr;
return a.re>b.re;
};
priority_queue <FUCK> que;
int id,re,ti,pr,t;
int main()
{
while (~scanf("%d%d%d%d",&id,&re,&ti,&pr))
{
while(!que.empty() && t<re)
{
FUCK now=que.top();
que.pop();
if (t<now.re) t=now.re;
int tim=min(re-t,now.ti);
now.ti-=tim,t+=tim;
if (now.ti) que.push(now);
else printf("%d %d\n",now.id,t);
}
que.push(FUCK(id,re,ti,pr));
}
while (!que.empty())
{
FUCK now=que.top();
que.pop();a
printf("%d %d\n",now.id,t+=now.ti);
}
}