Almost Union-Find(可删除元素的并查集)

【题目大意】

      初始给定n个集合:{1},{2},…,{n},要求支持三种操作:

 

 1       "1 p q":若p,q不在同一集合,将它们所在的集合合并成一个。

 2       "2 p q":若p,q不在同一集合,将元素p移动到q所在的集合。

 3       "3 p"   :询问p所在集合的元素个数及元素和。

 

 总共m个操作,1<=n,m<=10^5。


 思路1:

                         维护sum[x],num[x],表示用x表示的集合元素和 及 元素个数,这就可以解决操作1和3;

                    对于操作2,若直接把p的祖先变为pre(q),假如p就是祖先就会导致p的孩子所在的集合也变为pre(q)所以                     这里不能直接对p做修改,就因为他是祖先,所以一个思路就是不再让集合内的元素做祖先,令pre[i]=i+n

                    而令pre[i+n] = i+n (n 为元素最多数目)作为祖先。这样就避免了上述问题。


  代码1:


#include<iostream>
#include<cstdio>
#include<set>
#include<queue>
#include<vector>
#include<map>
#include<climits>
#include<cstring>
#include<algorithm>
using namespace std;

int pre[200010];
map <int,int> num;
map <int,int> sum;
int n;
void init()
{
    for(int i = 0; i <= n; i++)
    {
         pre[i]  = i+n;
         pre[i+n]= i+n;
         sum[i+n]= i;
         num[i+n]= 1;
    }
}

int find_(int x)
{
    return pre[x] == x ? x :(pre[x] = find_(pre[x]));
}

void join(int x,int y)
{
    int fx = find_(x);
    int fy = find_(y);
    if(fx != fy)
    {
        sum[fx] += sum[fy];
        num[fx] += num[fy];
        pre[fy] = fx;
    }
}

void move_(int x,int y)
{
   int fx = find_(x);
   int fy = find_(y);
   sum[fx] -= x;
   num[fx] --;
   sum[fy] += x;
   num[fy] ++;
   pre[x] = fy;
}

int main(){
    int q;
    while(scanf("%d%d",&n,&q)!=EOF)
    {
        init();
        while(q--)
        {
            int mark,x,y;
            scanf("%d",&mark);
            if(mark == 1)
            {
                scanf("%d%d",&x,&y);
                join(x,y);
            }
            else if(mark == 2)
            {
                scanf("%d%d",&x,&y);
                move_(x,y);
            }
            else
            {
                scanf("%d",&x);
                int fx = find_(x);
                printf("%d %d\n",num[fx],sum[fx]);
            }
        }
    }
    return 0;
}

 

思路2: 还可以偷梁换柱,添加一个数组id[],使每个数都有i 和 id[i]两纬状态,当要删除某个元素时,只要把他id[i]状态改变,使他的id从n+1开始建立新的单元集合。原状态用来存储原定关系不要改变,当查询,连接时,我们只查询连接id[]状态就可以了,i的状态只用来存路径。



#include<iostream>
#include<cstdio>
#include<set>
#include<queue>
#include<vector>
#include<map>
#include<climits>
#include<cstring>
#include<algorithm>
using namespace std;

int pre[200010];
map <int,int> num;
map <int,int> sum;
map <int,int> id;
int n,tal;
void init()
{
    for(int i = 0; i <= n; i++)
    {
         pre[i]= i;
         id[i] = i;
         sum[i]= i;
         num[i]= 1;
    }
    tal = n+1;
}

int find_(int x)
{
    return pre[x] == x ? x :(pre[x] = find_(pre[x]));
}

void join(int x,int y)
{
    int fx = find_(x);
    int fy = find_(y);
    if(fx != fy)
    {
        sum[fx] += sum[fy];
        num[fx] += num[fy];
        pre[fy] = fx;
    }
}

void move_(int x,int y)
{
   int fx = find_(id[x]);
   int fy = find_(id[y]);
   if(fx == fy) return;
   sum[fx] -= x;
   num[fx] --;
   id[x] = tal++;
   sum[id[x]] = x;
   num[id[x]] = 1;
   pre[id[x]] = id[x];
   join(id[x],id[y]);
}

int main(){
    int q;
    while(scanf("%d%d",&n,&q)!=EOF)
    {
        init();
        while(q--)
        {
            int mark,x,y;
            scanf("%d",&mark);
            if(mark == 1)
            {
                scanf("%d%d",&x,&y);
                join(id[x],id[y]);
            }
            else if(mark == 2)
            {
                scanf("%d%d",&x,&y);
                move_(x,y);
            }
            else
            {
                scanf("%d",&x);
                int fx = find_(id[x]);
                printf("%d %d\n",num[fx],sum[fx]);
            }
        }
    }
    return 0;
}


深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值