首先给出n个人的其实工资,接下来Q个加薪操作,给薪水在[l,r]之间的人,薪水加c,执行完左右操作后,求发出的薪水的总和。这题有个条件,就是Ri<Li+1,这样的话,遍历所有加薪操作的区间,最都就是100000个,所以就可以枚举每次加薪操作了。存储时用a[i]表示薪水为i的人有几个,枚举一个操作的区间,执行a[i+c]+=a[i],a[i]=0,注意每个子区间要从大到小枚举,不然可能会重复操作.
#include <iostream>
#include <cstdio>
#include <algorithm>
#include <cmath>
#include <queue>
#include <cstring>
#define lson id<<1,l,m
#define rson id<<1|1,m+1,r
using namespace std;
typedef long long ll;
const int maxn=100000+100;
int n,m;
int a[maxn<<2];
struct node
{
int l,r,c;
}add[maxn];
int main()
{
// freopen("in.txt","r",stdin);
int l,r,x;
ll ans;
while (~scanf("%d%d",&n,&m))
{
ans=0;
memset(a,0,sizeof a);
for (int i=1; i<=n; i++)
scanf("%d",&x),a[x]++;
for (int i=1; i<=m; i++)
{
scanf("%d%d%d",&add[i].l,&add[i].r,&add[i].c);
}
int p=1;
int tt;
for (int i=1; i<=m; i++)
{
for (int j=add[i].r; j>=add[i].l; j--)
a[j+add[i].c]+=a[j],a[j]=0;
}
for (int i=1; i<=220000; i++)
ans+=(ll)a[i]*(ll)i;
printf("%lld\n",ans);
}
return 0;
}