这道题就是模拟银行家算法,但是因为数据量非常大,所以直接遍历的做法最差复杂度会达到n*n*m,而且数据比较卡你这点,所以这道题的暴力做法可以采用,按照需求从小到大总和先贪心的拍一下序,之后可以用链表来实现删除的过程,这样可以过,时间还是比较慢.
还有一种做法就是直接从后面开始遍历,估计出数据的人也没想到,非常快...
仔细想一想,为什么这道题这么费时,主要的时间就是用在了一遍一遍的遍历寻找可以执行的任务上,虽然有链表实现可以节约一点点时间,但是并没有改变这个情况,其实正解的话是利用数据的m比较小这个特点,建立m个队列,分别储存3维需求,分别排序,每次只要遍历在最前面的一些点,而且不会重复.所以每个元素出队的次数就最多是M次.相当于把m维分开考虑,就避免了遍历这种需求.题目很不错.
#include<stdio.h>
#include<stdlib.h>
#include<memory.h>
struct node
{
int need;
int id;
};
struct node que[4][51000];
int hash[51000],head[4],own[4];
int now[4][51000];
void chu()
{
memset(hash,0,sizeof(hash));
}
int cmp(const void *a,const void *b)
{
return (*(struct node*)a).need-(*(struct node*)b).need;
}
int main()
{
int flag,sum,n,m,i,f;
freopen("D:\\in.txt","r",stdin);
while(scanf("%d%d",&n,&m)!=EOF)
{
chu();
for(f=1;f<=m;f++)
{
head[f]=1;
for(i=1;i<=n;i++)
{
que[f][i].id=i;
scanf("%d",&now[f][i]);
}
}
for(f=1;f<=m;f++)
{
for(i=1;i<=n;i++)
{
scanf("%d",&que[f][i].need);
}
}
for(i=1;i<=m;i++)
{
scanf("%d",&own[i]);
qsort(&que[i][1],n,sizeof(que[0][0]),cmp);
}
sum=0;
flag=1;
while(1 == flag)
{
flag=0;
for(i=1;i<=m;i++)
{
for(;head[i]<=n;head[i]++)
{
if(own[i] < que[i][head[i]].need)
{
break;
}
flag=1;
hash[que[i][head[i]].id]++;
if(m == hash[que[i][head[i]].id])
{
sum++;
for(f=1;f<=m;f++)
{
own[f]+=now[f][que[i][head[i]].id];
}
}
}
}
}
if(n == sum)
{
printf("Yes\n");
}
else
{
printf("No\n");
}
}
return 0;
}