洛谷 P1312 Mayan游戏

题目描述
Mayan puzzle是最近流行起来的一个游戏。游戏界面是一个 7 行5 列的棋盘,上面堆放着一些方块,方块不能悬空堆放,即方块必须放在最下面一行,或者放在其他方块之上。游戏通关是指在规定的步数内消除所有的方块,消除方块的规则如下:
1 、每步移动可以且仅可以沿横向(即向左或向右)拖动某一方块一格:当拖动这一方块时,如果拖动后到达的位置(以下称目标位置)也有方块,那么这两个方块将交换位置(参见输入输出样例说明中的图6 到图7 );如果目标位置上没有方块,那么被拖动的方块将从原来的竖列中抽出,并从目标位置上掉落(直到不悬空,参见下面图1 和图2);
这里写图片描述
2 、任一时刻,如果在一横行或者竖列上有连续三个或者三个以上相同颜色的方块,则它们将立即被消除(参见图1 到图3)。
这里写图片描述
注意:
a) 如果同时有多组方块满足消除条件,几组方块会同时被消除(例如下面图4 ,三个颜色为1 的方块和三个颜色为 2 的方块会同时被消除,最后剩下一个颜色为 2 的方块)。
b) 当出现行和列都满足消除条件且行列共享某个方块时,行和列上满足消除条件的所有方块会被同时消除(例如下面图5 所示的情形,5 个方块会同时被消除)。
3 、方块消除之后,消除位置之上的方块将掉落,掉落后可能会引起新的方块消除。注意:掉落的过程中将不会有方块的消除。
上面图1 到图 3 给出了在棋盘上移动一块方块之后棋盘的变化。棋盘的左下角方块的坐标为(0, 0 ),将位于(3, 3 )的方块向左移动之后,游戏界面从图 1 变成图 2 所示的状态,此时在一竖列上有连续三块颜色为4 的方块,满足消除条件,消除连续3 块颜色为4 的方块后,上方的颜色为3 的方块掉落,形成图 3 所示的局面。


【题目分析】
暴力。


【代码】

#include <cstdio>
#include <cstring>
#include <algorithm>
using namespace std;
struct record{int x,y,z;}b[6];
struct map{int a[5][8];int step;};
int n,dep;
bool del(map & x)
{
    int can[5][8]; memset(can,0,sizeof can);
    for (int i=0;i<5;++i) for (int j=0;j<7;++j)
        if (x.a[i][j]){
            int tmp=0,k=0;
            while (j+k<7&&x.a[i][j]==x.a[i][j+k]) k++,tmp++;
            if (tmp>=3) for (int l=0;l<k;++l) can[i][j+l]=1;
        }
    for (int i=0;i<5;++i) for (int j=0;j<7;++j)
        if (x.a[i][j]){
            int tmp=0,k=0;
            while (i+k<5&&x.a[i][j]==x.a[i+k][j]) k++,tmp++;
            if (tmp>=3) for (int l=0;l<k;++l) can[i+l][j]=1;
        }
    bool flag=false;
    for (int i=0;i<5;++i) for (int j=0;j<7;++j) if (can[i][j])
        x.a[i][j]=0,flag=true;  
    return flag;
}
void drop(map & x)
{
    for (int i=0;i<5;++i) for (int j=0;j<7;++j) if (x.a[i][j]==0)
        for (int k=j+1;k<7;++k)
            if (x.a[i][k]!=0)
            {
                x.a[i][j]=x.a[i][k],x.a[i][k]=0;
                break; 
            }
}
bool dfs(map now)
{
    int v[11],cnt=0; memset(v,0,sizeof v);
    for (int i=0;i<5;++i) for (int j=0;j<7;++j)
        v[now.a[i][j]]++;
    for (int i=1;i<=10;++i) if (v[i]==1||v[i]==2) return false;
    bool flag=true;
    for (int i=0;i<5;++i) for (int j=0;j<7;++j)
        if (now.a[i][j]) flag=false;
    if (flag) return true;
    if (now.step>=dep) return false;
    for (int i=0;i<5;++i)
        for (int j=0;j<7;++j)
        if (now.a[i][j]!=0){
            if (now.a[i][j]&&i+1<5&&now.a[i][j]!=now.a[i+1][j])
            {
                map to=now;
                swap(to.a[i][j],to.a[i+1][j]);
                drop(to);
                while (del(to)) drop(to);
                to.step=now.step+1;
                if (dfs(to))
                {
                    b[now.step].x=i;
                    b[now.step].y=j;
                    b[now.step].z=1;
                    return true;
                }
            }
            if (now.a[i][j]&&i-1>=0&&now.a[i-1][j]==0)
            {
                map to=now;
                swap(to.a[i-1][j],to.a[i][j]);
                drop(to);
                while (del(to)) drop(to);
                to.step=now.step+1;
                if (dfs(to))
                {
                    b[now.step].x=i;
                    b[now.step].y=j;
                    b[now.step].z=-1;
                    return true;
                }
            }
        }
    return false;
}
void pout()
{for (int i=0;i<dep;++i) printf("%d %d %d\n",b[i].x,b[i].y,b[i].z);}
int main()
{
    map st;
    scanf("%d",&n);
    memset(st.a,0,sizeof st.a);
    for (int i=0;i<5;++i)
        for (int j=0;;++j)
        {scanf("%d",&st.a[i][j]); if (st.a[i][j]==0) break;}
    st.step=0; dep=n;
    if (dfs(st)){pout();return 0;}
    printf("-1\n");
}
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值