Gym 100971J

题目链接:http://codeforces.com/gym/100971/problem/J

题目意思:一个由“#”,“.”,“1”,“2”构成的网格,其中“1”,‘2’代表机器人,“.”表示机器人可到达,“#”表示不可到达,问:这两个机器人是否可以交换位置。(注意:机器人在移动的过程中不可直接交换位置,也不能同时到达同一个“.”)。

思路:注意所有的“.”是连通的。所以机器人一定可以到达对方的位置,只需要考虑机器人在移动的过程中是否可以交换位置就可以了。如果“.”可以构成“T”字型机器人一定可以交换位置,还有一种就是“.”构成一个环。

 AC代码:

#include<iostream>
#include<stdio.h>
#include<string.h>
using namespace std;
int main()
{
	int n,m,i,j,cnt,sum,count;
	bool flag;
	cin>>n>>m;
	count=sum=0;
	char mp[n+5][m+5];
	memset(mp,0,sizeof(mp));
	for(i=1;i<=n;i++)
	for(j=1;j<=m;j++)
	{
		cin>>mp[i][j];
		if(mp[i][j]!='#')
		count++;
	}
	for(i=1;i<=n;i++)
	{
		for(j=1;j<=m;j++)
		{
			cnt=0;
			if(mp[i][j]=='#')
			continue;
			else
			{
				if(mp[i-1][j]=='.'||mp[i-1][j]=='1'||mp[i-1][j]=='2')
				cnt++;
				if(mp[i+1][j]=='.'||mp[i+1][j]=='1'||mp[i+1][j]=='2')
				cnt++;
				if(mp[i][j-1]=='.'||mp[i][j-1]=='1'||mp[i][j-1]=='2')
				cnt++;
				if(mp[i][j+1]=='.'||mp[i][j+1]=='1'||mp[i][j+1]=='2')
				cnt++;
				if(cnt>=3)//T
				{
					cout<<"YES\n";
					return 0;
				}
				if(cnt==2)
				sum++;
			}
		}
	}
	if(count==sum)//环 
	cout<<"YES\n";
	else
	cout<<"NO\n";
	return 0;
 } 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
DeepLearning4j是一个基于Java编写的深度学习框架,支持多种神经网络模型和算法。其中包括DQN算法,可以用于处理强化学习问题。 以下是DeepLearning4j中实现DQN算法的示例代码: ```java public class DQNExample { public static void main(String[] args) throws Exception { //定义强化学习环境 GymEnv gymEnv = new GymEnv("CartPole-v0", false, false); //定义神经网络模型 int numInputs = gymEnv.getObservationSpace().getShape()[0]; int numOutputs = gymEnv.getActionSpace().getSize(); int numHiddenNodes = 32; MultiLayerConfiguration conf = new NeuralNetConfiguration.Builder() .seed(123) .updater(new Adam(0.01)) .list() .layer(new DenseLayer.Builder().nIn(numInputs).nOut(numHiddenNodes).activation(Activation.RELU).build()) .layer(new DenseLayer.Builder().nIn(numHiddenNodes).nOut(numHiddenNodes).activation(Activation.RELU).build()) .layer(new OutputLayer.Builder(LossFunctions.LossFunction.MSE).nIn(numHiddenNodes).nOut(numOutputs).activation(Activation.IDENTITY).build()) .build(); //定义DQN算法 DQN dqn = new DQN(conf, gymEnv, new QLearning.QLConfiguration( 123, //随机数种子 1000, //最大步数 500, //记忆库大小 32, //小批量大小 500, //目标更新频率 10, //训练开始前等待步数 0.01, //初始ε贪心策略参数 0.1, //最小ε贪心策略参数 0.99, //ε贪心策略参数衰减率 1 //回放库采样策略参数 )); //训练模型 for (int i = 0; i < 1000; i++) { dqn.train(); } //测试模型 gymEnv.reset(); for (int i = 0; i < 1000; i++) { INDArray obs = gymEnv.getObservation(); int action = dqn.getAction(obs); gymEnv.step(action); gymEnv.render(); } } } ``` 在以上代码中,首先定义了强化学习环境,这里使用了OpenAI Gym提供的CartPole-v0环境。接着定义了神经网络模型,使用了两个全连接层和一个输出层,其中激活函数分别为ReLU和恒等函数。然后定义了DQN算法,其中包括了训练的超参数,如最大步数、记忆库大小等。最后进行模型的训练和测试,测试时使用了模型的预测结果作为动作。 需要注意的是,DeepLearning4j中实现DQN算法需要依赖于OpenAI Gym环境和ND4J库,需要进行配置和安装。此外,DQN算法还有许多改进版本,如Double DQN、Dueling DQN等,可以根据具体问题进行选择和实现。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值