洛谷P4396 [AHOI2013]作业
时空限制 1000ms-3000ms / 128MB
题目描述
此时己是凌晨两点,刚刚做了Codeforces的小A掏出了英语试卷。英语作业其实不算多,一个小时刚好可以做完。然后是一个小时可以做完的数学作业,接下来是分别都是一个小时可以做完的化学,物理,语文…小A压力巨大。
这是小A碰见了一道非常恶心的数学题,给定了一个长度为n的数列和若干个询问,每个询问是关于数列的区间表示数列的第l个数到第r个数),首先你要统计该区间内大于等于a,小于等于b的数的个数,其次是所有大于等于a,小于等于b的,且在该区间中出现过的数值的个数。
小A望着那数万的数据规模几乎绝望,只能向大神您求救,请您帮帮他吧。
输入格式:
第一行n,m
接下来n个数表示数列
接下来m行,每行四个数l,r,a,b
输出格式:
输出m行,分别对应每个询问,输出两个数,分别为在l到r这段区间中大小在[a,b]中的数的个数,以及大于等于a,小于等于b的,且在该区间中出现过的数值的个数(具体可以参考样例)。
说明
N<=100000,M<=100000
题目分析
一开始其实就想到了莫队+树状数组,但看着数据范围迟迟不敢下手
偷瞄了一眼题解发现确实是然后开始打,最后还是开了O2才大力卡过最后一个点
开两个树状数组记录区间数值的出现情况就好
题目也没给数值范围,试了一下没离散化也能过就不管了
时间复杂度
O
(
n
n
l
o
g
n
)
O(n\sqrt{n}logn)
O(nnlogn)
大力卡过之后有思考了一下,感觉正解应该可以是CDQ分治
把数值在序列的位置看作横坐标,数值看作纵坐标,求二维区间内点的个数
两问分两次求,复杂度都是
O
(
n
l
o
g
n
)
O(nlogn)
O(nlogn),不过懒得码了
#include<iostream>
#include<cstdio>
#include<algorithm>
#include<cstring>
#include<cmath>
#include<queue>
using namespace std;
typedef long long lt;
#define lowbit(x) ((x)&(-x))
int read()
{
int x=0,f=1;
char ss=getchar();
while(ss<'0'||ss>'9'){if(ss=='-')f=-1;ss=getchar();}
while(ss>='0'&&ss<='9'){x=x*10+ss-'0';ss=getchar();}
return x*f;
}
const int maxn=100010;
int n,m,t;
int val[maxn],sum[maxn][2],mx;
struct node{int ll,rr,a,b,id;}q[maxn];
int cnt[maxn],L=1,R=0;
int ans[maxn][2];
bool cmp(node a,node b){ return (a.ll/t)==(b.ll/t)?a.rr<b.rr:(a.ll/t)<(b.ll/t);}
void update(int x,int v,int d){ for(int i=x;i<=mx+1;i+=lowbit(i))sum[i][d]+=v;}
int qsum(int x,int d){ int res=0; for(int i=x;i>0;i-=lowbit(i))res+=sum[i][d]; return res;}
void add(int x)
{
update(x,1,0);
if(++cnt[x]==1) update(x,1,1);
}
void del(int x)
{
update(x,-1,0);
if(--cnt[x]==0) update(x,-1,1);
}
int main()
{
n=read();m=read();
for(int i=1;i<=n;++i)
val[i]=read(),mx=max(val[i],mx);
for(int i=1;i<=m;++i)
{
q[i].ll=read(); q[i].rr=read();
q[i].a=read(); q[i].b=read(); q[i].id=i;
}
t=sqrt(n);
sort(q+1,q+1+m,cmp);
for(int i=1;i<=m;++i)
{
while(R<q[i].rr) add(val[++R]);
while(R>q[i].rr) del(val[R--]);
while(L<q[i].ll) del(val[L++]);
while(L>q[i].ll) add(val[--L]);
ans[q[i].id][0]=qsum(q[i].b,0)-qsum(q[i].a-1,0);
ans[q[i].id][1]=qsum(q[i].b,1)-qsum(q[i].a-1,1);
}
for(int i=1;i<=m;++i)
printf("%d %d\n",ans[i][0],ans[i][1]);
return 0;
}
洛谷P4867 Gty的二逼妹子序列
时空限制 5000ms / 30MB
和上一题第二问完全一样,查询操作的数据范围大了十倍
n,m(1≤n≤100000,1≤m≤1000000)
向上面一样用树状数组会T一个点
观察这题数据性质可以发现是因为询问多造成修改复杂度太大
所以想办法降低修改复杂度
把树状数组替换成分块求和,这样修改就是
O
(
1
)
O(1)
O(1),询问是
O
(
(
n
)
)
O(\sqrt(n))
O((n))
#include<iostream>
#include<cstdio>
#include<cmath>
#include<vector>
#include<algorithm>
#include<cstring>
using namespace std;
typedef long long lt;
#define lowbit(x) ((x)&(-x))
int read()
{
int f=1,x=0;
char ss=getchar();
while(ss<'0'||ss>'9'){if(ss=='-')f=-1;ss=getchar();}
while(ss>='0'&&ss<='9'){x=x*10+ss-'0';ss=getchar();}
return f*x;
}
const int maxn=100010;
int n,m,t;
int a[maxn],val[maxn];
int lft[maxn],rht[maxn],pos[maxn];
int cnt[maxn],sum[maxn],L=1,R=0;
struct node{int ll,rr,a,b,id;}q[maxn*10];
int ans[maxn*10];
void build()
{
for(int i=1;i<=t;++i)
lft[i]=(i-1)*t+1,rht[i]=i*t;
if(rht[t]<n) t++,lft[t]=rht[t-1]+1,rht[t]=n;
for(int i=1;i<=t;++i)
for(int j=lft[i];j<=rht[i];++j)
pos[j]=i;
}
void update(int x,int v)
{
int p=pos[x];
sum[p]+=v; val[x]+=v;
}
int qsum(int ll,int rr)
{
int p=pos[ll],q=pos[rr],res=0;
if(p==q) for(int i=ll;i<=rr;++i) res+=val[i];
else
{
for(int i=p+1;i<q;++i) res+=sum[i];
for(int i=ll;i<=rht[p];++i) res+=val[i];
for(int i=lft[q];i<=rr;++i) res+=val[i];
}
return res;
}
bool cmp(node a,node b){ return (a.ll/t)==(b.ll/t)?a.rr<b.rr:(a.ll/t)<(b.ll/t);}
void add(int x){ if(++cnt[x]==1) update(x,1);}
void del(int x){ if(--cnt[x]==0) update(x,-1);}
int main()
{
n=read();m=read();t=sqrt(n);
for(int i=1;i<=n;++i) a[i]=read();
for(int i=1;i<=m;++i)
{
q[i].ll=read(); q[i].rr=read();
q[i].a=read(); q[i].b=read();
q[i].id=i;
}
build();
sort(q+1,q+1+m,cmp);
for(int i=1;i<=m;++i)
{
while(R<q[i].rr) add(a[++R]);
while(R>q[i].rr) del(a[R--]);
while(L<q[i].ll) del(a[L++]);
while(L>q[i].ll) add(a[--L]);
ans[q[i].id]=qsum(q[i].a,q[i].b);
}
for(int i=1;i<=m;++i)
printf("%d\n",ans[i]);
return 0;
}