用1和0 表示每一条可被切割的线是否被切割,然后用两棵线段树分别统计长和宽的最长连续零的个数。最大矩阵面积即为最长的长*最长的宽,即
(长的最长连续零+1)∗(宽的最长连续零+1)
时间复杂度O(n* max( log2(w) , log2(h)))
求线段树最大连续子段和,最大连续0的个数等,为了满足区间加法,需另记附加信息lsum,rsum,即左起最大值和右起最大值,这样的话最大的sum无非三种情况:1.都在左子树里。2.都在右子树里。3.横跨左右子树,即为左子树的右起最大值+右子树的左起最大值。这样就满足区间加法,可以用线段树维护了。
#include <cstdio>
#include <cstring>
#define N 200010
#define ll long long
int n1,n2,m;
inline int read(){
int x=0,f=1;char ch=getchar();
while(ch<'0'||ch>'9'){if(ch=='-')f=-1;ch=getchar();}
while(ch>='0'&&ch<='9') x=x*10+ch-'0',ch=getchar();
return x*f;
}
inline int max(int x,int y){return x>y?x:y;}
struct node{
int lsum,rsum,sum;
}tree1[N<<2],tree2[N<<2];
inline void build(node tree[],int p,int l,int r){
tree[p].lsum=tree[p].rsum=tree[p].sum=r-l+1;
if(l==r) return;
int mid=l+r>>1;
build(tree,p<<1,l,mid);build(tree,p<<1|1,mid+1,r);
}
inline void pushup(node tree[],int p,int l,int r){
int mid=l+r>>1;
tree[p].sum=max(tree[p<<1].sum,tree[p<<1|1].sum);
tree[p].sum=max(tree[p].sum,tree[p<<1].rsum+tree[p<<1|1].lsum);
tree[p].lsum=tree[p<<1].lsum;if(tree[p<<1].sum==mid-l+1) tree[p].lsum+=tree[p<<1|1].lsum;
tree[p].rsum=tree[p<<1|1].rsum;if(tree[p<<1|1].sum==r-mid) tree[p].rsum+=tree[p<<1].rsum;
}
inline void change(node tree[],int p,int l,int r,int x){
if(l==r){
tree[p].lsum=tree[p].rsum=tree[p].sum=0;return;
}
int mid=l+r>>1;
if(x<=mid) change(tree,p<<1,l,mid,x);
else change(tree,p<<1|1,mid+1,r,x);
pushup(tree,p,l,r);
}
int main(){
// freopen("a.in","r",stdin);
n1=read();n2=read();m=read();
build(tree1,1,1,n1-1);build(tree2,1,1,n2-1);
while(m--){
char op[2];int x;
scanf("%s",op);x=read();
if(op[0]=='V') change(tree1,1,1,n1-1,x);
else change(tree2,1,1,n2-1,x);
printf("%lld\n",(ll)(tree1[1].sum+1)*(tree2[1].sum+1));
}
return 0;
}