这题一看10000的数据量就知道必须用nlog(n)的时间复杂度。
所以特意去看了最长上升子序列的nlog(n)的算法。
如果有2个位置,该位置上的元素为A[i]和A[j],并且他们满足以下条件:
1.dp[i] = dp[j] (dp[x]代表以x结尾的最长上升子序列长度)
2.A[i] < A[j]
3.i < j
那么毫无疑问,选择dp[i] 一定优于选择dp[j]
那么我们可以利用g[i]表示长度为i的序列的最后一个元素的最小值.
每次拿到一个A[i],在g[i]里面寻找到一个元素,使得g[t] >= A[i].
dp[i] = t;
之后更新最小值 g[t] = A[i];
求最大下降子序列的话返回来遍历一遍就行了。
之后 ans = max(ans, min(dp[i],dp[j]) * 2 - 1);
#include<cstdio>
#include<cstring>
#include<iostream>
#include<algorithm>
#include<map>
#include<stack>
#include<queue>
#include<set>
#include<ctime>
#include<cmath>
#include<string>
#include<iomanip>
#include<climits>
#include<cctype>
#include<deque>
#include<list>
#include<sstream>
#include<vector>
#include<cstdlib>
using namespace std;
#define _PI acos(-1.0)
typedef long long LL;
typedef unsigned long long ULL;
typedef pair<int,int> pill;
/*======================================
======================================*/
#define MAXD 10010
#define INF (1 << 30)
void LIS1(int dp[],int A[],int n){
int g[MAXD];
for(int i = 1 ; i <= n ; i++) g[i] = INF;
for(int i = 1 ; i <= n ; i++){
int k = lower_bound(g + 1 , g + n + 1 , A[i]) - g;
dp[i] = k;
g[k] = A[i];
}
return ;
}
void LIS2(int dp[],int A[],int n){
int g[MAXD];
for(int i = 1 ; i <= n ; i++) g[i] = INF;
for(int i = n ; i >= 1 ; i--){
int k = lower_bound(g + 1 , g + n + 1 , A[i]) - g;
dp[i] = k;
g[k] = A[i];
}
return ;
}
int main(){
int n;
int A[MAXD];
while(scanf("%d",&n) != EOF){
for(int i = 1 ; i <= n ; i++)
scanf("%d",&A[i]);
int dp1[MAXD] , dp2[MAXD];
LIS1(dp1,A,n);
LIS2(dp2,A,n);
int ans = 0 ;
for(int i = 1 ; i <= n ; i++){
int t = min(dp1[i],dp2[i]);
ans = max(ans,2 * t - 1);
}
printf("%d\n",ans);
}
return 0;
}