算法训练 操作格子
时间限制:1.0s 内存限制:256.0MB
问题描述
有n个格子,从左到右放成一排,编号为1-n。
共有m次操作,有3种操作类型:
1.修改一个格子的权值,
2.求连续一段格子权值和,
3.求连续一段格子的最大值。
对于每个2、3操作输出你所求出的结果。
输入格式
第一行2个整数n,m。
接下来一行n个整数表示n个格子的初始权值。
接下来m行,每行3个整数p,x,y,p表示操作类型,p=1时表示修改格子x的权值为y,p=2时表示求区间[x,y]内格子权值和,p=3时表示求区间[x,y]内格子最大的权值。
输出格式
有若干行,行数等于p=2或3的操作总数。
每行1个整数,对应了每个p=2或3操作的结果。
样例输入
4 3
1 2 3 4
2 1 3
1 4 3
3 1 4
1 2 3 4
2 1 3
1 4 3
3 1 4
样例输出
6
3
3
数据规模与约定
对于20%的数据n <= 100,m <= 200。
对于50%的数据n <= 5000,m <= 5000。
对于100%的数据1 <= n <= 100000,m <= 100000,0 <= 格子权值 <= 10000。
AC代码:简单二合一,用结构体
#include<bits/stdc++.h>
using namespace std;
#define lson l,m,x<<1
#define rson m+1,r,x<<1|1
#define size 100001
struct node{
int maxn;
int sum;
}tree[size<<2];
void ms(int x){
tree[x].sum=tree[x<<1].sum+tree[x<<1|1].sum;
tree[x].maxn=max(tree[x<<1].maxn,tree[x<<1|1].maxn);
}
void build(int l,int r,int x){
if(l==r){
scanf("%d",&tree[x].sum);
tree[x].maxn=tree[x].sum;
return;
}
int m=(l+r)>>1;
build(lson);
build(rson);
ms(x);
}
void update(int u,int up,int l,int r,int x){
if(l==r){
tree[x].maxn=tree[x].sum=up;
return ;
}
int m=(l+r)>>1;
if(u<=m)update(u,up,lson); //注意u<=m
else update(u,up,rson);
ms(x);
}
int query(int p,int L,int R,int l,int r,int x){
if(p==2){
if(L<=l&&R>=r)
return tree[x].sum;
int m=(l+r)>>1;
int sum=0;
if(L<=m)
sum+=query(p,L,R,lson);
if(R>m) sum+=query(p,L,R,rson);
return sum;
}
else {
if(L<=l&&R>=r)
return tree[x].maxn;
int m=(l+r)>>1;
int maxv=0;
if(L<=m)
maxv=max(maxv,query(p,L,R,lson));
if(R>m) maxv=max(maxv,query(p,L,R,rson));
return maxv;
}
}
int main()
{
int n,m;
int p,a,b;
while(~scanf("%d %d",&n,&m)){
build(1,n,1);
while(m--){
scanf("%d %d %d",&p,&a,&b);
if(p==1)update(a,b,1,n,1);
else printf("%d\n",query(p,a,b,1,n,1));
}
}
return 0;
}