【BZOJ1109】[POI2007]堆积木Klo 二维偏序

【BZOJ1109】[POI2007]堆积木Klo

Description

  Mary在她的生日礼物中有一些积木。那些积木都是相同大小的立方体。每个积木上面都有一个数。Mary用他的所有积木垒了一个高塔。妈妈告诉Mary游戏的目的是建一个塔,使得最多的积木在正确的位置。一个上面写有数i的积木的正确位置是这个塔从下往上数第i个位置。Mary决定从现有的高塔中移走一些,使得有最多的积木在正确的位置。请你告诉Mary她应该移走哪些积木。

Input

  第一行为一个数n,表示高塔的初始高度。第二行包含n个数a1,a2,...,an,表示从下到上每个积木上面的数。(1<=n<=100000,1<=ai<=1000000)。

Output

  注意:请输出最多有多少点可以处在正确位置

Sample Input

5
1 1 2 5 4

Sample Output

3

HINT

 

题解:将每个格子看成一个二维平面上的点,那么用f[j]表示答案,j能转移到i当且仅当j<i&&a[j]<a[i]&&j-a[j]<=i-a[i],然后我发下这是个三维偏序,然后就上了一个cdq分治过了。

结果看题解发现,a[j]<a[i]&&j-a[j]<=i-a[i]就一定说明j<i,所以二维偏序就行了,感觉自己真是个沙茶~

#include <cstdio>
#include <cstring>
#include <iostream>
#include <algorithm>
using namespace std;
const int maxn=1000010;
int n,m,ans,now;
int s[maxn],vis[maxn],v[maxn],x[maxn],y[maxn],p[maxn],f[maxn];
bool cmp(int a,int b)
{
	return (y[a]==y[b])?(a<b):y[a]<y[b];
}
void updata(int x,int v)
{
	for(int i=x;i<=m;i+=i&-i)
	{
		if(vis[i]<now)	vis[i]=now,s[i]=-1<<30;
		s[i]=max(s[i],v);
	}
}
int query(int x)
{
	int ret=-1<<30,i;
	for(i=x;i>0;i-=i&-i)
	{
		if(vis[i]<now)	vis[i]=now,s[i]=-1<<30;
		ret=max(ret,s[i]);
	}
	return ret;
}
void solve(int l,int r)
{
	if(l==r)	return ;
	int mid=l+r>>1,h1=l,h2=mid+1,i;
	solve(l,mid);
	sort(p+mid+1,p+r+1,cmp);
	now++;
	while(h1<=mid||h2<=r)
	{
		if(h1<=mid&&(h2>r||y[p[h1]]<=y[p[h2]]))	updata(x[p[h1]],f[p[h1]]),h1++;
		else	f[p[h2]]=max(f[p[h2]],query(x[p[h2]]-1)+1),h2++;
	}
	for(i=mid+1;i<=r;i++)	p[i]=i;
	solve(mid+1,r);
	sort(p+l,p+r+1,cmp);
}
int main()
{
	scanf("%d",&n);
	int i;
	for(i=1;i<=n;i++)
	{
		scanf("%d",&x[i]),m=max(m,x[i]),y[i]=i-x[i],p[i]=i;
		if(x[i]<=i)	f[i]=1;
		else	f[i]=-1<<30;
	}
	solve(1,n);
	for(i=1;i<=n;i++)	ans=max(ans,f[i]);
	printf("%d",ans);
	return 0;
}

转载于:https://www.cnblogs.com/CQzhangyu/p/7090631.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
基于PyTorch的Embedding和LSTM的自动写诗实验LSTM (Long Short-Term Memory) 是一种特殊的循环神经网络(RNN)架构,用于处理具有长期依赖关系的列数据。传统的RNN在处理长列时往往会遇到梯度消失或梯度爆炸的问题,导致无法有效地捕捉长期依赖。LSTM通过引入门控机制(Gating Mechanism)和记忆单元(Memory Cell)来克服这些问题。 以下是LSTM的基本结构和主要组件: 记忆单元(Memory Cell):记忆单元是LSTM的核心,用于存储长期信息。它像一个传送带一样,在整个链上运行,只有一些小的线性交互。信息很容易地在其上保持不变。 输入门(Input Gate):输入门决定了哪些新的信息会被加入到记忆单元中。它由当前时刻的输入和上一时刻的隐藏状态共同决定。 遗忘门(Forget Gate):遗忘门决定了哪些信息会从记忆单元中被丢弃或遗忘。它也由当前时刻的输入和上一时刻的隐藏状态共同决定。 输出门(Output Gate):输出门决定了哪些信息会从记忆单元中输出到当前时刻的隐藏状态中。同样地,它也由当前时刻的输入和上一时刻的隐藏状态共同决定。 LSTM的计算过程可以大致描述为: 通过遗忘门决定从记忆单元中丢弃哪些信息。 通过输入门决定哪些新的信息会被加入到记忆单元中。 更新记忆单元的状态。 通过输出门决定哪些信息会从记忆单元中输出到当前时刻的隐藏状态中。 由于LSTM能够有效地处理长期依赖关系,它在许多列建模任务中都取得了很好的效果,如语音识别、文本生成、机器翻译、时预测等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值