【TJOI2015】弦论【后缀自动机】

后缀自动机总结

传送门

分两个子问题。如果只算一次,那直接dag上动规就行。

如果多算,就在插入的时候打个endsize=1。我是在准备的时候弄得。先fail树上endsize累加起来。注意1的endsize不能要。然后再dag上动规。

不用建出这些树,因为长度大的一定在底层,所以从大到小处理即可。

记得搜索的时候减去自己这个串的贡献。

#include<bits/stdc++.h>
using namespace std;
#define in read()
int in{
	int cnt=0,f=1;char ch=0;
	while(!isdigit(ch)){
		ch=getchar();if(ch=='-')f=-1;
	}
	while(isdigit(ch)){
		cnt=cnt*10+ch-48;
		ch=getchar();
	}return cnt*f;
}
struct node{
	int ch[26],len,fail,endsize,size;
}t[1000003];int cnt=1,last=1;
void insert(char s){
	int x=s-'a';int p=last;int now;last=now=++cnt;t[now].len=t[p].len+1;//t[now].endsize=1;
	for(;p&&!t[p].ch[x];p=t[p].fail)t[p].ch[x]=now;
	if(!p)t[now].fail=1;
	else{
		int q=t[p].ch[x];if(t[q].len==t[p].len+1)t[now].fail=q;
		else{
			int tem=++cnt;t[tem]=t[q];t[tem].len=t[p].len+1;t[q].fail=t[now].fail=tem;
			for(;p&&t[p].ch[x]==q;p=t[p].fail)t[p].ch[x]=tem;
		}
	}
} 
char ch[500003];int a,b;int len;
vector<int> q[1000003];
void pre0(){
	for(int i=1;i<=cnt;i++)t[i].size=1,q[t[i].len].push_back(i);
	for(int i=len;i>=0;i--){
		for(int j=0;j<q[i].size();j++){
			int k=q[i][j];
			for(int l=0;l<26;l++){
				if(t[k].ch[l])t[k].size+=t[t[k].ch[l]].size;
			}
		}
	}
}
void dfs0(int u,int k){
	if(--k==0)return;
	for(int i=0;i<26;i++){
		if(t[u].ch[i]){
			if(t[t[u].ch[i]].size>=k){
				putchar(i+'a');dfs0(t[u].ch[i],k);break;
			}else k-=t[t[u].ch[i]].size;
		}
	}
}
void pre1(){
	int now=1;for(int i=1;i<=len;i++){
		now=t[now].ch[ch[i]-'a'];
		t[now].endsize++;
	}
	for(int i=1;i<=cnt;i++)q[t[i].len].push_back(i);
	for(int i=len;i>=0;i--){
		for(int j=0;j<q[i].size();j++){
			int k=q[i][j];
			t[t[k].fail].endsize+=t[k].endsize;
		}
	}t[1].endsize=0;
	for(int i=1;i<=cnt;i++)t[i].size=t[i].endsize;t[1].size=t[1].endsize=0;
	for(int i=len;i>=0;i--){
		for(int j=0;j<q[i].size();j++){
			int k=q[i][j];
			for(int l=0;l<26;l++){
				if(t[k].ch[l]){
					t[k].size+=t[t[k].ch[l]].size;
				}
			}
		}
	}
}
void dfs1(int u,int k){//cout<<u<<" "<<t[u].endsize<<" "<<k<<endl;
	if((k-=t[u].endsize)<=0)return;
	for(int i=0;i<26;i++){
		//cout<<t[u].ch[i]<<endl;
		if(t[u].ch[i]){//cout<<t[t[u].ch[i]].size<<endl;
			if(k<=t[t[u].ch[i]].size){
				putchar(i+'a');dfs1(t[u].ch[i],k);break;
			}else k-=t[t[u].ch[i]].size;
		}
	}
}
int main(){
	scanf("%s",ch+1);len=strlen(ch+1);
	for(int i=1;i<=len;i++)insert(ch[i]);
//	for(int i=1;i<=cnt;i++)cout<<i<<" "<<t[i].fail<<endl;
	a=in;b=in;
	if(!a){
		pre0();
		if(t[1].size<b)cout<<"-1";else{
			dfs0(1,b+1);
		}
	}else{
		pre1();
		if(t[1].size<b)cout<<"-1";else{
			dfs1(1,b);
		}
	}
	return 0;
}

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
VR(Virtual Reality)即虚拟现实,是一种可以创建和体验虚拟世界的计算机技术。它利用计算机生成一种模拟环境,是一种多源信息融合的、交互式的三维动态视景和实体行为的系统仿真,使用户沉浸到该环境中。VR技术通过模拟人的视觉、听觉、触觉等感觉器官功能,使人能够沉浸在计算机生成的虚拟境界中,并能够通过语言、手势等自然的方式与之进行实时交互,创建了一种适人化的多维信息空间。 VR技术具有以下主要特点: 沉浸感:用户感到作为主角存在于模拟环境中的真实程度。理想的模拟环境应该使用户难以分辨真假,使用户全身心地投入到计算机创建的三维虚拟环境中,该环境中的一切看上去是真的,听上去是真的,动起来是真的,甚至闻起来、尝起来等一切感觉都是真的,如同在现实世界中的感觉一样。 交互性:用户对模拟环境内物体的可操作程度和从环境得到反馈的自然程度(包括实时性)。例如,用户可以用手去直接抓取模拟环境中虚拟的物体,这时手有握着东西的感觉,并可以感觉物体的重量,视野中被抓的物体也能立刻随着手的移动而移动。 构想性:也称想象性,指用户沉浸在多维信息空间中,依靠自己的感知和认知能力获取知识,发挥主观能动性,寻求解答,形成新的概念。此概念不仅是指观念上或语言上的创意,而且可以是指对某些客观存在事物的创造性设想和安排。 VR技术可以应用于各个领域,如游戏、娱乐、教育、医疗、军事、房地产、工业仿真等。随着VR技术的不断发展,它正在改变人们的生活和工作方式,为人们带来全新的体验。
VR(Virtual Reality)即虚拟现实,是一种可以创建和体验虚拟世界的计算机技术。它利用计算机生成一种模拟环境,是一种多源信息融合的、交互式的三维动态视景和实体行为的系统仿真,使用户沉浸到该环境中。VR技术通过模拟人的视觉、听觉、触觉等感觉器官功能,使人能够沉浸在计算机生成的虚拟境界中,并能够通过语言、手势等自然的方式与之进行实时交互,创建了一种适人化的多维信息空间。 VR技术具有以下主要特点: 沉浸感:用户感到作为主角存在于模拟环境中的真实程度。理想的模拟环境应该使用户难以分辨真假,使用户全身心地投入到计算机创建的三维虚拟环境中,该环境中的一切看上去是真的,听上去是真的,动起来是真的,甚至闻起来、尝起来等一切感觉都是真的,如同在现实世界中的感觉一样。 交互性:用户对模拟环境内物体的可操作程度和从环境得到反馈的自然程度(包括实时性)。例如,用户可以用手去直接抓取模拟环境中虚拟的物体,这时手有握着东西的感觉,并可以感觉物体的重量,视野中被抓的物体也能立刻随着手的移动而移动。 构想性:也称想象性,指用户沉浸在多维信息空间中,依靠自己的感知和认知能力获取知识,发挥主观能动性,寻求解答,形成新的概念。此概念不仅是指观念上或语言上的创意,而且可以是指对某些客观存在事物的创造性设想和安排。 VR技术可以应用于各个领域,如游戏、娱乐、教育、医疗、军事、房地产、工业仿真等。随着VR技术的不断发展,它正在改变人们的生活和工作方式,为人们带来全新的体验。
基于GPT-SoVITS的视频剪辑快捷配音工具 GPT, 通常指的是“Generative Pre-trained Transformer”(生成式预训练转换器),是一个在自然语言处理(NLP)领域非常流行的深度学习模型架构。GPT模型由OpenAI公司开发,并在多个NLP任务上取得了显著的性能提升。 GPT模型的核心是一个多层Transformer解码器结构,它通过在海量的文本数据上进行预训练来学习语言的规律。这种预训练方式使得GPT模型能够捕捉到丰富的上下文信息,并生成流畅、自然的文本。 GPT模型的训练过程可以分为两个阶段: 预训练阶段:在这个阶段,模型会接触到大量的文本数据,并通过无监督学习的方式学习语言的结构和规律。具体来说,模型会尝试预测文本序列中的下一个词或短语,从而学习到语言的语法、语义和上下文信息。 微调阶段(也称为下游任务训练):在预训练完成后,模型会被应用到具体的NLP任务中,如文本分类、机器翻译、问答系统等。在这个阶段,模型会使用有标签的数据进行微调,以适应特定任务的需求。通过微调,模型能够学习到与任务相关的特定知识,并进一步提高在该任务上的性能。 GPT模型的优势在于其强大的生成能力和对上下文信息的捕捉能力。这使得GPT模型在自然语言生成、文本摘要、对话系统等领域具有广泛的应用前景。同时,GPT模型也面临一些挑战,如计算资源消耗大、训练时间长等问题。为了解决这些问题,研究人员不断提出新的优化方法和扩展模型架构,如GPT-2、GPT-3等,以进一步提高模型的性能和效率。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值