BZOJ P1787:[Ahoi2008]Meet 紧急集合

练练模板吧

这次是LCA模板

直接求三个点的LCA,然后会发现若有两个LCA相同,那么集合点为另一个点

然后我来证明一下为什么这样(口胡)

我们设lca(x,y)=hehe1,lca(x,z)=hehe2

那么非常显然lca(y,z)=lca(hehe1,z)=hehe2

然后假设hehe1到hehe2的距离为len

那么当我们把集合点从hehe2移到hehe1时与x,y的距离减去了2*len,与z的距离加上了len

那么显然hehe1更优

下面是代码(一开始RE了三四次,把cin改了就A,无语)

#include<algorithm>
#include<cmath>
#include<cstring>
#include<cstdio>
using namespace std;
const int N=600003;
struct edge{
	int to,next;
}e[N*2+5];
int f[N][31],inn[N],head[N];
int dep[N],out[N];
int tot,n,m,x,y,z,p,q,r,s,ans,tim;
inline int read(){
    char ch=getchar();
    int f=1,x=0;
    while(!(ch>='0'&&ch<='9')){if(ch=='-')f=-1;ch=getchar();}
    while(ch>='0'&&ch<='9'){x=x*10+(ch-'0');ch=getchar();}
    return x*f;
}
inline void add(int x,int y){
	e[++tot].to=y;
	e[tot].next=head[x];
	head[x]=tot;
}
void dfs(int fa,int x,int depth){
	f[x][0]=fa;
	dep[x]=depth;
	inn[x]=++tim;
	for(int i=head[x];i;i=e[i].next){
		if(e[i].to!=fa){
			dfs(x,e[i].to,depth+1);
		}
	}
	out[x]=++tim;
}
bool pd(int x,int y){
	return(inn[x]<=inn[y]&&out[x]>=out[y]);
}
int lca(int x,int y){
	if(pd(x,y)){
		return x;
	}
	if(pd(y,x)){
		return y;
	}
	int k=x;
	for(int j=30;j>=0;j--){
		if(!pd(f[k][j],y)){
			k=f[k][j];
		}
	}
	return f[k][0];
}
int dis(int x,int y){
	int t=lca(x,y);
	return dep[x]+dep[y]-2*dep[t];
}
int main(){
	n=read(),m=read();
	for(int i=1;i<n;i++){
		x=read(),y=read();
		add(x,y);
		add(y,x);
	}
	dfs(0,1,0);
	f[1][0]=1;
	for(int j=1;j<=30;j++){
		for(int i=1;i<=n;i++){
			f[i][j]=f[f[i][j-1]][j-1];
		}
	}
	for(int i=1;i<=m;i++){
		x=read();y=read();z=read();
		int p1=lca(x,y),p2=lca(x,z),p3=lca(y,z),t;
		if(p1==p2){
			t=p3;
		}else{
			if(p2==p3){
				t=p1;	
			}else{
				t=p2;
			}
		}
		int ans=dis(x,t)+dis(y,t)+dis(z,t);
		printf("%d %d\n",t,ans);
	}
	return 0;
}
/*
in:
6 4
1 2
2 3
2 4
4 5
5 6
4 5 6
6 3 1
2 4 4
6 6 6

out:
5 2
2 5
4 1
6 0
*/


深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值