足球联赛

题目描述

巴蜀中学新一季的足球联赛开幕了。足球联赛有 n 只球队参赛,每赛季,每只球队要与其他球队各赛两场,主客各一场,赢一场得 3 分,输一场不得分,平局两只队伍各得一分。

英勇无畏的小鸿是机房的主力前锋,她总能在关键时刻踢出一些匪夷所思的妙球。但是很可惜,她过早的燃烧完了她的职业生涯,不过作为一个能够 Burning 的 girl,她的能力不止如此,她还能预测这个赛季所有球队的比赛结果。

虽然她能准确预测所有比赛的结果,但是其实她不怎么厉害,Mr.Gao 上数学课时她总是在 sleep,因此她的脑里只有整数没有实数,而且,她只会 10 以内非负整数的加法运算,因此她只有结果却无法知道谁会获得联赛的冠军。

小鸿想给冠军队伍的所有队员一个拥抱,所以她把计算结果的任务交给了你:

现在,给你一个 n*n 的矩阵表示比赛情况。第 i 行第 j 列的字母表示在第 i 只队伍在主场迎战第 j 只队伍的比赛情况,W 表示主队赢,L 表示主队输,D 表示平局。现在需要你给出最后能得到小鸿拥抱的队伍编号,如有多支队伍分数最高,按字典序输出编号。

输入
第一行一个整数 n。
接下来 n 行,每行 n 个字符,表示输赢情况。
第 i 行第 i 列为 - ,因为一只队伍不可能与自己比赛。

输出
输出得分最高的队伍编号。如有多个在一行中输出,用一个空格分开。

输入样例
样列1
3
-WW
W-W
WW-

样列2
5
-DWWD
L-WLL
DD-WD
DDL-L
DDLL-

输出样例
样例1
1 2 3

样例2
1

【数据范围】
对于 40%的数据,满足 N<=20
对于 100%的数据,满足 N<=50
.
.
.
.
.
分析
水题一道,直接暴力即可
.
.
.
.
.
程序:

#include<iostream>
#include<cstdio>
#include<cstring>
using namespace std;
int main()
{
	int n,b[100],f[100];
	char a[100][100];
	memset(f,sizeof(f),0);
	scanf("%d",&n);
	for (int i=1;i<=n;i++)
	{
		b[i]=i;
		for (int j=1;j<=n;j++)
		{
			cin>>a[i][j];
			if (i==j) continue;
			if (a[i][j]=='W') f[i]+=3; else 
			if (a[i][j]=='L') f[j]+=3; else
			if (a[i][j]=='D') 
			{
				f[i]+=1;
				f[j]+=1;
			}
		}
	}
	for (int i=1;i<=n-1;i++)
		for (int j=i+1;j<=n;j++)
			if (f[i]<f[j])
			{
				f[0]=f[i];f[i]=f[j];f[j]=f[0];
				b[0]=b[i];b[i]=b[j];b[j]=b[0];
			}
	int max=f[1],i=1;
	while (f[i]==max)
	{
		printf("%d ",b[i]);
		i++;
	}
	return 0;
}

转载于:https://www.cnblogs.com/YYC-0304/p/10292823.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python是一种非常适合进行网络爬虫的编程语言,可以用它来爬取足球联赛数据。以下是一种常见的方法来实现这个目标: 1. 确定目标网站:首先,你需要确定你想要爬取数据的足球联赛网站。一些常见的足球数据网站包括:ESPN、BBC Sport、SofaScore等。 2. 分析网页结构:使用开发者工具或者查看网页源代码,分析目标网站的网页结构。找到包含所需数据的HTML元素和标签。 3. 使用Python库进行爬取:Python有很多强大的库可以用来进行网络爬虫,比如Requests和BeautifulSoup。使用Requests库发送HTTP请求获取网页内容,然后使用BeautifulSoup库解析HTML并提取所需数据。 4. 数据处理和存储:一旦你成功地从网页中提取到了足球联赛数据,你可以对数据进行处理和清洗,然后将其存储到数据库或者文件中,以便后续分析和使用。 下面是一个简单的示例代码,演示了如何使用Python爬取足球联赛数据: ```python import requests from bs4 import BeautifulSoup # 发送HTTP请求获取网页内容 url = "https://www.example.com/football" response = requests.get(url) html_content = response.text # 使用BeautifulSoup解析HTML soup = BeautifulSoup(html_content, "html.parser") # 提取所需数据 data = [] matches = soup.find_all("div", class_="match") for match in matches: home_team = match.find("span", class_="home-team").text away_team = match.find("span", class_="away-team").text score = match.find("span", class_="score").text data.append({"home_team": home_team, "away_team": away_team, "score": score}) # 处理和存储数据 for match_data in data: print(match_data) # 在这里可以对数据进行进一步处理或者存储到数据库/文件中 ``` 请注意,以上代码只是一个简单的示例,实际的爬虫过程可能会更加复杂,需要根据目标网站的具体结构和数据格式进行相应的调整。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值