题意:
给定长度为n的序列,q次询问,
每次询问给定x,问有多少个子区间的gcd=x。
数据范围:n<=1e5,q<=3e5
解法:
如果固定左端点l,而r不断递增,区间[l,r]的gcd最多下降log次,
因此对于一个左端点l,只有log种r,满足[l,r]的gcd不同,
考虑直接预处理出所有答案,对询问O(1)回答.
先st表预处理出区间gcd,
然后对于每个l,二分计算出每种gcd的区间,
对于每个l,最多二分log次,因此复杂度O(log*log),
因为有n个左端点l,所以预处理部分的总复杂度为O(n*log*log).
code:
#include <bits/stdc++.h>
using namespace std;
#define ll long long
const int maxm=1e5+5;
map<int,ll>mark;
int a[maxm];
int n,q;
struct ST{
static const int maxd=20;
int g[maxm][25];
int lg2[maxm];
void init(){
lg2[1]=0;
for(int i=2;i<maxm;i++){
lg2[i]=lg2[i-1];
if((i&(i-1))==0)lg2[i]++;
}
//
for(int i=1;i<=n;i++){
g[i][0]=a[i];
}
for(int j=1;j<=maxd;j++){
for(int i=1;i+(1<<j)-1<=n;i++){
g[i][j]=__gcd(g[i][j-1],g[i+(1<<(j-1))][j-1]);
}
}
}
int ask(int l,int r){
int k=lg2[r-l+1];
return __gcd(g[l][k],g[r-(1<<k)+1][k]);
}
}T;
int ffind(int now,int i,int l,int r){
int ans=-1;
while(l<=r){
int mid=(l+r)/2;
if(T.ask(i,mid)==now)ans=mid,l=mid+1;
else r=mid-1;
}
return ans;
}
signed main(){
scanf("%d",&n);
for(int i=1;i<=n;i++){
scanf("%d",&a[i]);
}
//
T.init();
for(int i=1;i<=n;i++){
int now=a[i];
int pos=i;
while(1){
int p=ffind(now,i,pos,n);
mark[now]+=p-pos+1;
pos=p+1;
if(pos>n)break;
now=T.ask(i,pos);
}
}
//
scanf("%d",&q);
while(q--){
int x;scanf("%d",&x);
printf("%lld\n",mark[x]);
}
return 0;
}