ZOJ - 3814 Sawtooth Puzzle

3 篇文章 0 订阅

这道题最恶心的地方就是预处理了。辣鸡xcode都没法完整读入整张图(可能是没配置好),必须文件输入。
预处理的时候将每一块拼图旋转4次,和结果对比,获取哪几个旋转的情况满足条件,这样就将问题抽象化。
旋转的时候要用dfs或者bfs看那几块会跟着一起转。一开始写的时候犯二了先改变了当前块的状态再去找其他块,连样例都过不去(也还好连样例都过不去,不然debug起来真的恶心)。
总的可能性总数为4^9,不算太大,直接bfs就好了。

#include<iostream>
#include<string>
#include<cstdio>
#include<set>
#include<stack>
#include<list>
#include<vector>
#include<queue>
#include<algorithm>
#include<cstring>
#include<cmath>
#include<fstream>

using namespace std;
typedef long long ll;

const int xx[] = {0,-1,0,1};
const int yy[] = {-1,0,1,0};

char st[10][10][10];
char ed[10][10][10];
int edge[10][5];
int fl[10][5];
int turn[10];
bool vis2[10];
bool vis[1111111];

//ifstream cin;
//ofstream cout;

int gethash(){
    int t = 0;
    for(int i = 0;i < 9;++i){
        t = t * 4 + turn[i];
    }
    return t;
}

void getturn(int hash){
    for(int i = 8;i >= 0;--i){
        turn[i] = hash % 4;
        hash /= 4;
    }
}

inline int op(int x){
    while (x >= 4) x -= 4;
    while (x < 0) x += 4;
    return x;
}

inline bool candfs(int a,int b,int k)//判断是否咬合
{
    if (edge[a][op(k - turn[a])] && edge[b][op(k + 2 - turn[b])]) return true;
    return false;
}

void dfs(int x,int flag){//传递旋转
    vis2[x] = 1;
    for(int k = 0;k < 4;++k){
        int i = x / 3 + xx[k],j = x % 3 + yy[k];
        if (i < 0 || i > 2 || j < 0 || j > 2 || !candfs(x,i * 3 + j,k) || vis2[i * 3 + j]) continue;
        dfs(i * 3 + j,-flag);
    }
    turn[x] += flag;//一定要先dfs再修改拼图的状态!在这里wa了一次
    turn[x] = op(turn[x]);
}

bool check(int hash){//判断是否满足结束条件
    getturn(hash);
    for(int i = 0;i < 9;++i){
        if (!fl[i][turn[i]]) return false;
    }
    return true;
}

void bfs(){
    memset(vis,0,sizeof vis);
    vis[0] = 1;
    memset(turn,0,sizeof turn);
    queue<pair<int,int> > Q;
    Q.push({0,0});
    while(!Q.empty()){
        int x = Q.front().first,s = Q.front().second;Q.pop();
        if (check(x)){
            cout << s << endl;
            return;
        }
        for(int i = 0;i < 9;++i){
            getturn(x);
            memset(vis2,0,sizeof vis2);
            dfs(i,1);
            int p = gethash();
            if (vis[p]) continue;
            vis[p] = 1;
            Q.push({p,s+1});
        }
    }
    cout << -1 << endl;
}

void cal(int k){//获取结束条件
    char tmp[10][10],tmp2[10][10];
    for(int i = 0;i < 8;++i)
        for(int j = 0;j < 8;++j)
            tmp[i][j] = st[k][i][j];
    for(int t = 0;t < 4;++t){
        bool b = true;
        for(int i = 0;i < 8;++i)
            for(int j = 0;j < 8;++j)
                if (tmp[i][j] != ed[k][i][j]) b = false;
        if (b) fl[k][t] = 1;
        for(int i = 0;i < 8;++i)
            for(int j = 0;j < 8;++j)
                tmp2[j][7-i] = tmp[i][j];
        for(int i = 0;i < 8;++i)
            for(int j = 0;j < 8;++j)
                tmp[i][j] = tmp2[i][j];
    }
}

void init(){
    memset(fl,0,sizeof fl);
    for(int t = 0;t <= 6;t += 3)
    {
        for(int i = 0;i < 8;i++)
        {
            for(int k = t;k < t+3;k++)
            {
                cin >> st[k][i];
            }
        }
    }
    for(int t = 0;t <= 6;t += 3)
    {
        for(int i = 0;i < 8;i++)
        {
            for(int k = t;k < t+3;k++)
            {
                cin >> ed[k][i];
            }
        }
    }
    for(int i = 0;i < 9;i++)
    {
        for(int j = 0;j < 4;j++)
        {
            cin >> edge[i][j];
        }
    }
    for(int k = 0;k < 9;k++) cal(k);
    if (check(0)) cout << 0 << endl;
    else bfs();
}

int main(){
    //cin.open("in.txt");
    //cout.open("out.txt");
    int t;
    cin >> t;
    while(t--){
        init();
    }
}
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
基于Tensorflow、OpenAI搭建的强化学习框架,训练机器自动操盘 强化学习(Reinforcement Learning, RL),又称再励学习、评价学习或增强学习,是机器学习的范式和方法论之一。它主要用于描述和解决智能体(agent)在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题。强化学习的特点在于没有监督数据,只有奖励信号。 强化学习的常见模型是标准的马尔可夫决策过程(Markov Decision Process, MDP)。按给定条件,强化学习可分为基于模式的强化学习(model-based RL)和无模式强化学习(model-free RL),以及主动强化学习(active RL)和被动强化学习(passive RL)。强化学习的变体包括逆向强化学习、阶层强化学习和部分可观测系统的强化学习。求解强化学习问题所使用的算法可分为策略搜索算法和值函数(value function)算法两类。 强化学习理论受到行为主义心理学启发,侧重在线学习并试图在探索-利用(exploration-exploitation)间保持平衡。不同于监督学习和非监督学习,强化学习不要求预先给定任何数据,而是通过接收环境对动作的奖励(反馈)获得学习信息并更新模型参数。强化学习问题在信息论、博弈论、自动控制等领域有得到讨论,被用于解释有限理性条件下的平衡态、设计推荐系统和机器人交互系统。一些复杂的强化学习算法在一定程度上具备解决复杂问题的通用智能,可以在围棋和电子游戏中达到人类水平。 强化学习在工程领域的应用也相当广泛。例如,Facebook提出了开源强化学习平台Horizon,该平台利用强化学习来优化大规模生产系统。在医疗保健领域,RL系统能够为患者提供治疗策略,该系统能够利用以往的经验找到最优的策略,而无需生物系统的数学模型等先验信息,这使得基于RL的系统具有更广泛的适用性。 总的来说,强化学习是一种通过智能体与环境交互,以最大化累积奖励为目标的学习过程。它在许多领域都展现出了强大的应用潜力。
尝试用基于值函数逼近的强化学习方法玩经典的马里奥游戏,取得了一定成果 强化学习(Reinforcement Learning, RL),又称再励学习、评价学习或增强学习,是机器学习的范式和方法论之一。它主要用于描述和解决智能体(agent)在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题。强化学习的特点在于没有监督数据,只有奖励信号。 强化学习的常见模型是标准的马尔可夫决策过程(Markov Decision Process, MDP)。按给定条件,强化学习可分为基于模式的强化学习(model-based RL)和无模式强化学习(model-free RL),以及主动强化学习(active RL)和被动强化学习(passive RL)。强化学习的变体包括逆向强化学习、阶层强化学习和部分可观测系统的强化学习。求解强化学习问题所使用的算法可分为策略搜索算法和值函数(value function)算法两类。 强化学习理论受到行为主义心理学启发,侧重在线学习并试图在探索-利用(exploration-exploitation)间保持平衡。不同于监督学习和非监督学习,强化学习不要求预先给定任何数据,而是通过接收环境对动作的奖励(反馈)获得学习信息并更新模型参数。强化学习问题在信息论、博弈论、自动控制等领域有得到讨论,被用于解释有限理性条件下的平衡态、设计推荐系统和机器人交互系统。一些复杂的强化学习算法在一定程度上具备解决复杂问题的通用智能,可以在围棋和电子游戏中达到人类水平。 强化学习在工程领域的应用也相当广泛。例如,Facebook提出了开源强化学习平台Horizon,该平台利用强化学习来优化大规模生产系统。在医疗保健领域,RL系统能够为患者提供治疗策略,该系统能够利用以往的经验找到最优的策略,而无需生物系统的数学模型等先验信息,这使得基于RL的系统具有更广泛的适用性。 总的来说,强化学习是一种通过智能体与环境交互,以最大化累积奖励为目标的学习过程。它在许多领域都展现出了强大的应用潜力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值