Problem Description
我们有一个数列A1,A2...An,你现在要求修改数量最少的元素,使得这个数列严格递增。其中无论是修改前还是修改后,每个元素都必须是整数。 请输出最少需要修改多少个元素。
Input
第一行输入一个 T(1≤T≤10) ,表示有多少组数据
每一组数据:
第一行输入一个 N(1≤N≤10 5 ) ,表示数列的长度
第二行输入N个数 A 1 ,A 2 ,...,A n 。
每一个数列中的元素都是正整数而且不超过 10 6 。
Output
对于每组数据,先输出一行
Case #i:
然后输出最少需要修改多少个元素。
lis的变形,唯一不同的是条件a[i] - i > a[j] - j + 1,i>j。因为要确保这两个元素之间能插入i - j + 1个元素。
代码如下:
#include<cstdio>
#include<cstring>
#include<cmath>
#include<cstdlib>
#include<iostream>
#include<algorithm>
#include<vector>
#include<map>
#include<queue>
#include<stack>
#include<string>
#include<map>
using namespace std;
#define LL long long
const int maxn=100005;
const int INF=1000000000;
int dp1[maxn],dp2[maxn],g[maxn];
int ans[maxn];
int a[maxn];
int main(){
int t, kase = 0; scanf("%d", &t);
while(t--){
int n;
scanf("%d", &n);
for(int i=0;i<n;i++) scanf("%d",&a[i]);
for(int i=1;i<=n;i++) g[i]=INF;
for(int i=0;i<n;i++){
int k = lower_bound(g+1,g+n+1,a[i] - i)-g;
dp1[i]=k;
g[k]=a[i] - i - 1;
}
int ans = 0;
for(int i = 0; i< n; i++) ans = max(ans, dp1[i]);
int ans2 = n - ans;
printf("Case #%d:\n", ++kase);
//printf("%d\n%d\n",dp1[5],dp2[5]);
printf("%d\n",ans2);
}
}
#include<cstdio>
#include<cstring>
#include<cmath>
#include<cstdlib>
#include<iostream>
#include<algorithm>
#include<vector>
#include<map>
#include<queue>
#include<stack>
#include<string>
#include<map>
using namespace std;
#define LL long long
const int maxn=100005;
const int INF=1000000000;
int dp1[maxn],dp2[maxn],g[maxn];
int ans[maxn];
int a[maxn];
int main(){
int t, kase = 0; scanf("%d", &t);
while(t--){
int n;
scanf("%d", &n);
for(int i=0;i<n;i++) scanf("%d",&a[i]);
for(int i=1;i<=n;i++) g[i]=INF;
for(int i=0;i<n;i++){
int k = lower_bound(g+1,g+n+1,a[i] - i)-g;
dp1[i]=k;
g[k]=a[i] - i - 1;
}
int ans = 0;
for(int i = 0; i< n; i++) ans = max(ans, dp1[i]);
int ans2 = n - ans;
printf("Case #%d:\n", ++kase);
//printf("%d\n%d\n",dp1[5],dp2[5]);
printf("%d\n",ans2);
}
}