1012 数字分类 (20分)(测试点)

乙级再练习

给定一系列正整数,请按要求对数字进行分类,并输出以下 5 个数字:

A1 = 能被 5 整除的数字中所有偶数的和;
A​2​​ = 将被 5 除后余 1 的数字按给出顺序进行交错求和,即计算 n​1−n​2​​ +n​3​​ −n​4​​ ⋯;
A​3 = 被 5 除后余 2 的数字的个数;
A​4 = 被 5 除后余 3 的数字的平均数,精确到小数点后 1 位;
A​5​​ = 被 5 除后余 4 的数字中最大数字。

输入格式:
每个输入包含 1 个测试用例。每个测试用例先给出一个不超过 1000 的正整数 N,随后给出 N 个不超过 1000 的待分类的正整数。数字间以空格分隔。

输出格式:
对给定的 N 个正整数,按题目要求计算 A​1~A​5并在一行中顺序输出。数字间以空格分隔,但行末不得有多余空格。若其中某一类数字不存在,则在相应位置输出 N。

输入样例 1:

13 1 2 3 4 5 6 7 8 9 10 20 16 18

输出样例 1:

30 11 2 9.7 9

输入样例 2:

8 1 2 4 5 6 7 9 16

输出样例 2:

N 11 2 N 9

乙级再练习

注意A2的那组,不能以sum2 = 0来判断是否存在,因为是交错求和,且都是正整数。所以应该设计一个标志变量或者计数器,用这个判断。
#include <iostream>
using namespace std;

int main(){
	int sum1 = 0,sum2 = 0,sum4 = 0;//sum和cnt的下角标和A的下标相对应
	int cnt2 = 0,cnt3 = 0,cnt4 = 0,cnt5 = 0;
	int n;
	cin >> n;
	int k = -1;//用于交错求和
	int num;
	int maxn = 0;
	while(n--){
		cin >> num;
		if(num%5==0&&num%2==0){
			sum1 += num;
		}else if(num%5==1){
			k *= -1;//交错求和
            cnt2++;
			sum2 += k*num;
		}else if(num%5==2){
			cnt3++;
		}else if(num%5==3){
			cnt4++;
			sum4 += num;
		}else if(num%5==4){
			if(num>maxn)
				maxn = num;
		}
	}
	if(sum1)
		printf("%d",sum1);
	else
		printf("N");
	if(cnt2)//注意这里,不能写sum2
		printf(" %d",sum2);
	else
		printf(" N");
	if(cnt3)
		printf(" %d",cnt3);
	else
		printf(" N");
	if(cnt4)
		printf(" %.1lf",sum4*1.0/cnt4);
	else
		printf(" N");
	if(maxn)
		printf(" %d",maxn);
	else
		printf(" N");
	return 0;
}
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,针对您的问题,我可以给出以下的解答: 多层感知机(Multilayer Perceptron,MLP)是一种前馈神经网络,常用于分类和回归问题。MNIST手写数字数据集是一个常用的分类问题数据集,包含了60,000个训练样本和10,000个测试样本,每个样本都是一个28x28像素的灰度图像,代表了0到9中的一个数字。 在使用多层感知机对MNIST数据集进行分类时,可以将每个像素点作为一个特征输入到神经网络中。一般来说,可以使用两个或多个隐藏层来提高模型的性能。在训练过程中,可以使用交叉熵损失函数和反向传播算法来更新神经网络的权重和偏置。 以下是一个使用PyTorch实现的简单的多层感知机模型: ```python import torch import torch.nn as nn import torch.optim as optim from torchvision import datasets, transforms # 定义超参数 batch_size = 64 learning_rate = 0.01 num_epochs = 10 # 加载MNIST数据集 train_dataset = datasets.MNIST(root='./data', train=True, transform=transforms.ToTensor(), download=True) test_dataset = datasets.MNIST(root='./data', train=False, transform=transforms.ToTensor()) train_loader = torch.utils.data.DataLoader(dataset=train_dataset, batch_size=batch_size, shuffle=True) test_loader = torch.utils.data.DataLoader(dataset=test_dataset, batch_size=batch_size, shuffle=False) # 定义多层感知机模型 class MLP(nn.Module): def __init__(self): super(MLP, self).__init__() self.fc1 = nn.Linear(28*28, 256) self.fc2 = nn.Linear(256, 128) self.fc3 = nn.Linear(128, 10) self.relu = nn.ReLU() def forward(self, x): x = x.view(-1, 28*28) x = self.relu(self.fc1(x)) x = self.relu(self.fc2(x)) x = self.fc3(x) return x # 定义损失函数和优化器 model = MLP() criterion = nn.CrossEntropyLoss() optimizer = optim.SGD(model.parameters(), lr=learning_rate) # 训练模型 for epoch in range(num_epochs): for i, (images, labels) in enumerate(train_loader): images = images.reshape(-1, 28*28) outputs = model(images) loss = criterion(outputs, labels) optimizer.zero_grad() loss.backward() optimizer.step() if (i+1) % 100 == 0: print('Epoch [{}/{}], Step [{}/{}], Loss: {:.4f}'.format(epoch+1, num_epochs, i+1, len(train_loader), loss.item())) # 测试模型 with torch.no_grad(): correct = 0 total = 0 for images, labels in test_loader: images = images.reshape(-1, 28*28) outputs = model(images) _, predicted = torch.max(outputs.data, 1) total += labels.size(0) correct += (predicted == labels).sum().item() print('Accuracy of the model on the 10000 test images: {} %'.format(100 * correct / total)) ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值