检查网格中是否存在有效路径--简单粗暴的DFS

0x01.问题

给你一个 m x n 的网格 grid。网格里的每个单元都代表一条街道。grid[i][j] 的街道可以是:

  • 1 表示连接左单元格和右单元格的街道。
  • 2 表示连接上单元格和下单元格的街道。
  • 3 表示连接左单元格和下单元格的街道。
  • 4 表示连接右单元格和下单元格的街道。
  • 5 表示连接左单元格和上单元格的街道。
  • 6 表示连接右单元格和上单元格的街道。

你最开始从左上角的单元格 (0,0) 开始出发,网格中的「有效路径」是指从左上方的单元格
(0,0) 开始、一直到右下方的 (m-1,n-1) 结束的路径。该路径必须只沿着街道走。
注意:你 不能 变更街道。
如果网格中存在有效的路径,则返回 true,否则返回 false

在这里插入图片描述

注:题目来源于leetcode第181场周赛,第3题,前往:戳我前往

0x02.简要分析

只需要从原点开始,根据题目的走法,不断的去搜索就行了。

采用temp优化掉一个备忘录,便于恢复状态。

思路是普通的DFS的思路。

要注意横坐标和纵坐标的实际含义。

0x03.解决代码–DFS

class Solution {
public:
    bool dfs(vector<vector<int>>& grid,int x,int y){
        if(y==grid.size()-1&&x==grid[0].size()-1) return true;
        int temp=grid[y][x];
        grid[y][x]=0;
        if(temp==1){
            //向右走
            if(x+1<grid[0].size()&&(grid[y][x+1]==1||grid[y][x+1]==3||grid[y][x+1]==5)){
                if(dfs(grid,x+1,y)) return true;
            }
            //向左走
            if(x-1>=0&&(grid[y][x-1]==1||grid[y][x-1]==4||grid[y][x-1]==6)){
                if(dfs(grid,x-1,y)) return true;
            }
        }
        else if(temp==2){
            //向下走
            if(y+1<grid.size()&&(grid[y+1][x]==2||grid[y+1][x]==5||grid[y+1][x]==6)){
                if(dfs(grid,x,y+1)) return true;
            }
            //向上走
            if(y-1>=0&&(grid[y-1][x]==2||grid[y-1][x]==3||grid[y-1][x]==4)){
                if(dfs(grid,x,y-1)) return true;
            }
        }
        else if(temp==3){
            //向左走
            if(x-1>=0&&(grid[y][x-1]==1||grid[y][x-1]==4||grid[y][x-1]==6)){
                if(dfs(grid,x-1,y)) return true;
            }
            //向下走
            if(y+1<grid.size()&&(grid[y+1][x]==2||grid[y+1][x]==5||grid[y+1][x]==6)){
                if(dfs(grid,x,y+1)) return true;
            }
        }
        else if(temp==4){
            //向右走
            if(x+1<grid[0].size()&&(grid[y][x+1]==1||grid[y][x+1]==3||grid[y][x+1]==5)){
                if(dfs(grid,x+1,y)) return true;
            }
            //向下走
            if(y+1<grid.size()&&(grid[y+1][x]==2||grid[y+1][x]==5||grid[y+1][x]==6)){
                if(dfs(grid,x,y+1)) return true;
            }
        }
        else if(temp==5){
            //向左走
            if(x-1>=0&&(grid[y][x-1]==1||grid[y][x-1]==4||grid[y][x-1]==6)){
                if(dfs(grid,x-1,y)) return true;
            }
            //向上走
            if(y-1>=0&&(grid[y-1][x]==2||grid[y-1][x]==3||grid[y-1][x]==4)){
                if(dfs(grid,x,y-1)) return true;
            }
        }
        else if(temp==6){
            //向右走
            if(x+1<grid[0].size()&&(grid[y][x+1]==1||grid[y][x+1]==3||grid[y][x+1]==5)){
                if(dfs(grid,x+1,y)) return true;
            }
            //向上走
            if(y-1>=0&&(grid[y-1][x]==2||grid[y-1][x]==3||grid[y-1][x]==4)){
                if(dfs(grid,x,y-1)) return true;
            }
        }
        grid[y][x]=temp;
        return false;
    }
    bool hasValidPath(vector<vector<int>>& grid) {
        return dfs(grid,0,0);
    }
};

在这里插入图片描述

ATFWUS --Writing By 2020–03–22

  • 24
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论
下面是一个使用网格搜索优化CNN-LSTM-注意力机制模型参数的Python代码示例: ```python from sklearn.model_selection import GridSearchCV from keras.wrappers.scikit_learn import KerasClassifier from keras.models import Sequential from keras.layers import Conv2D, MaxPooling2D, LSTM, Dense, Flatten, Attention # 定义CNN-LSTM-注意力机制模型 def create_model(filters, kernel_size, pool_size, lstm_units, attention_units, learning_rate): model = Sequential() model.add(Conv2D(filters=filters, kernel_size=kernel_size, activation='relu', input_shape=(width, height, channels))) model.add(MaxPooling2D(pool_size=pool_size)) model.add(Flatten()) model.add(LSTM(units=lstm_units, return_sequences=True)) model.add(Attention(units=attention_units)) model.add(Dense(units=1, activation='sigmoid')) model.compile(optimizer=Adam(learning_rate=learning_rate), loss='binary_crossentropy', metrics=['accuracy']) return model # 创建Keras分类器 model = KerasClassifier(build_fn=create_model) # 定义参数网格 param_grid = { 'filters': [32, 64], 'kernel_size': [(3, 3), (5, 5)], 'pool_size': [(2, 2), (3, 3)], 'lstm_units': [64, 128], 'attention_units': [32, 64], 'learning_rate': [0.001, 0.01] } # 创建网格搜索对象 grid_search = GridSearchCV(estimator=model, param_grid=param_grid, cv=3) # 执行网格搜索 grid_search_result = grid_search.fit(X_train, y_train) # 输出最佳参数组合和评分 print("Best Parameters: ", grid_search_result.best_params_) print("Best Score: ", grid_search_result.best_score_) # 使用最佳参数组合训练模型并进行最终评估 best_model = grid_search_result.best_estimator_ best_model.fit(X_train, y_train) test_loss, test_accuracy = best_model.evaluate(X_test, y_test) print("Test Loss: ", test_loss) print("Test Accuracy: ", test_accuracy) ``` 在这个示例,我们在CNN-LSTM模型的基础上添加了注意力机制。注意力机制可以帮助模型更好地关注输入的关键特征。 我们首先定义了一个函数`create_model`来创建包含注意力机制的CNN-LSTM模型,并使用`KerasClassifier`将其包装为可用于网格搜索的Keras分类器。 然后,我们定义了参数网格`param_grid`,其包含了我们想要优化的参数范围,包括注意力机制的单元数量。 接下来,我们创建了一个`GridSearchCV`对象,并传入模型、参数网格和交叉验证的折数。 最后,我们调用`fit`方法来执行网格搜索。执行完毕后,我们可以通过`best_params_`属性获取最佳参数组合,并通过`best_score_`属性获取最佳模型的评分。 最后,我们使用最佳参数组合训练最佳模型,并在测试集上进行最终评估。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

ATFWUS

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值