NOI2004郁闷的出纳员----可持久化Treap

NOI2004郁闷的出纳员

题目描述 Description

OIER公司是一家大型专业化软件公司,有着数以万计的员工。作为一名出纳员,我的任务之一便是统计每位员工的工资。这本来是一份不错的工作,但是令人郁闷的是,我们的老板反复无常,经常调整员工的工资。如果他心情好,就可能把每位员工的工资加上一个相同的量。反之,如果心情不好,就可能把他们的工资扣除一个相同的量。我真不知道除了调工资他还做什么其它事情。

工资的频繁调整很让员工反感,尤其是集体扣除工资的时候,一旦某位员工发现自己的工资已经低于了合同规定的工资下界,他就会立刻气愤地离开公司,并且再也不会回来了。每位员工的工资下界都是统一规定的。每当一个人离开公司,我就要从电脑中把他的工资档案删去,同样,每当公司招聘了一位新员工,我就得为他新建一个工资档案。

老板经常到我这边来询问工资情况,他并不问具体某位员工的工资情况,而是问现在工资第k多的员工拿多少工资。每当这时,我就不得不对数万个员工进行一次漫长的排序,然后告诉他答案。

好了,现在你已经对我的工作了解不少了。正如你猜的那样,我想请你编一个工资统计程序。怎么样,不是很困难吧?

输入描述 Input Description

第一行有两个非负整数n和min。n表示下面有多少条命令,min表示工资下界。

接下来的n行,每行表示一条命令。命令可以是以下四种之一:

名称

格式

作用

I命令

I_k

新建一个工资档案,初始工资为k。如果某员工的初始工资低于工资下界,他将立刻离开公司。

A命令

A_k

把每位员工的工资加上k

S命令

S_k

把每位员工的工资扣除k

F命令

F_k

查询第k多的工资

_(下划线)表示一个空格,I命令、A命令、S命令中的k是一个非负整数,F命令中的k是一个正整数。

在初始时,可以认为公司里一个员工也没有。

输出描述 Output Description

输出文件的行数为F命令的条数加一。

对于每条F命令,你的程序要输出一行,仅包含一个整数,为当前工资第k多的员工所拿的工资数,如果k大于目前员工的数目,则输出-1

输出文件的最后一行包含一个整数,为离开公司的员工的总数。

样例输入 Sample Input

9 10

I 60

I 70

S 50

F 2

I 30

S 15

A 5

F 1

F 2

样例输出 Sample Output

10

20

-1

2

数据范围及提示 Data Size & Hint

【约定】

l I命令的条数不超过100000

l A命令和S命令的总条数不超过100

l F命令的条数不超过100000

l 每次工资调整的调整量不超过1000

l 新员工的工资不超过100000

    刚刚A掉NOI2006维护数列,再看这个表示这是真是一道超级大水题啊,两者简直无法相比。

      为了不浪费这道题作为NOI题的价值,我决定用我刚学的数据结构可持久化Treap来A掉它,结果调了2个小时,都是WA,我于是把眼光放得广了一些,发现我的可持久化Treap从一开始就没有写错,竟然是我的pusndown没有将已下放的标记清除!找块冻豆腐撞死算了。

      这道题用fhq Treap写挺好的,对于S操作,可以显示出可持久化Treap的威力,你可以直接调用root←split_r(root,k),这样简单的一句就代替了其他平衡树中的各种乱搞。另外,merge在这道题中没什么卵用。

  因为总是new所以在tyvj上超时。。。懒得再写内存池了

CodeVS评测结果

测试点#cashier1.in  结果:    内存使用量:  256kB     时间使用量:  0ms     
测试点#cashier10.in 结果: 内存使用量: 65644kB 时间使用量: 226ms
测试点#cashier2.in 结果: 内存使用量: 256kB 时间使用量: 0ms
测试点#cashier3.in 结果: 内存使用量: 8168kB 时间使用量: 16ms
测试点#cashier4.in 结果: 内存使用量: 12008kB 时间使用量: 31ms
测试点#cashier5.in 结果: 内存使用量: 16236kB 时间使用量: 44ms
测试点#cashier6.in 结果: 内存使用量: 30700kB 时间使用量: 79ms
测试点#cashier7.in 结果: 内存使用量: 45036kB 时间使用量: 111ms
测试点#cashier8.in 结果: 内存使用量: 79596kB 时间使用量: 232ms
测试点#cashier9.in 结果: 内存使用量: 83816kB 时间使用量: 270ms

Tyvj评测结果

评测结果

代码

//NOI2004 郁闷的出纳员 可持久化Treap
#include<cstdio>
#include<algorithm>
#include<cstdlib>
#define inf 0x7fffffff 
using namespace std;
int N, MIN, ans;
struct node
{
	node *l, *r;
	int k, w, size, d;
	node(int kk,int ww,node* ll,node* rr)
	{
		k=kk;w=ww;l=ll;r=rr;d=0;
		size=1;if(l)size+=l->size;if(r)size+=r->size;
	}
}*ROOT;
void pushdown(node *a)
{
	if(!a)return;
	a->k+=a->d;
	if(a->l)a->l->d+=a->d;
	if(a->r)a->r->d+=a->d;
	a->d=0;
}
node* split_l(node *a, int k)
{
	pushdown(a);
	return !a ? 0 :
		a->k <= k ? new node(a->k,a->w,a->l,split_l(a->r,k))
				  : split_l(a->l,k);
}
node* split_r(node* a, int k)
{
	pushdown(a);
	return !a ? 0 :
		a->k > k ? new node(a->k,a->w,split_r(a->l,k),a->r)
				 : split_r(a->r,k);
}
node* insert(node* a, int k, int w)
{
	pushdown(a);
	return (!a||a->w>w) ? new node(k,w,split_l(a,k),split_r(a,k)) :
		k > a->k ? new node(a->k,a->w,a->l,insert(a->r,k,w))
				  : new node(a->k,a->w,insert(a->l,k,w),a->r);
}
void find(node *a, int x)
{
	pushdown(a);
	int sl=a->l?a->l->size:0, sr=a->r?a->r->size:0;
	if(sl>=x)find(a->l,x);
	if(sl==x-1)printf("%d\n",a->k);
	if(sl+1<x)find(a->r,x-sl-1);
}
int main()
{
	int i, k, x;
	char ch[5];
	node *p;
	scanf("%d%d",&N,&MIN);
	ROOT=new node(0,0,0,0);
	for(i=1;i<=N;i++)
	{
		scanf("%s%d",ch,&k);
		switch(ch[0])
		{
			case 'I':if(k>=MIN)ROOT->l=insert(ROOT->l,k,rand());break;
			case 'A':if(ROOT->l)ROOT->l->d+=k;break;
			case 'S':if(ROOT->l)ROOT->l->d-=k;
				if(p=split_l(ROOT->l,MIN-1))ans+=p->size;
				ROOT->l=split_r(ROOT->l,MIN-1);break;
			case 'F':x=ROOT->l?ROOT->l->size:0;
				if(x>=k)find(ROOT->l,(x-k+1));else printf("-1\n");
		}
	}
	printf("%d\n",ans);
	return 0;
}


1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值