点赞 (20 分)

点赞 (20 分)

微博上有个“点赞”功能,你可以为你喜欢的博文点个赞表示支持。每篇博文都有一些刻画其特性的标签,而你点赞的博文的类型,也间接刻画了你的特性。本题就要求你写个程序,通过统计一个人点赞的纪录,分析这个人的特性。

输入格式:

输入在第一行给出一个正整数N(≤1000),是该用户点赞的博文数量。随后N行,每行给出一篇被其点赞的博文的特性描述,格式为“K F​1​​⋯F​K​​”,其中1≤K≤10,F​i​​(i=1,⋯,K)是特性标签的编号,我们将所有特性标签从1到1000编号。数字间以空格分隔。

输出格式:

统计所有被点赞的博文中最常出现的那个特性标签,在一行中输出它的编号和出现次数,数字间隔1个空格。如果有并列,则输出编号最大的那个。

输入样例:

4
3 889 233 2
5 100 3 233 2 73
4 3 73 889 2
2 233 123

输出样例:

233 3

 这道题只要将数字在数组中储存起来,然后遍历查找比较就行了。

/*点赞*/
#include <iostream>
#include <cstring>
#include <cmath>
using namespace std;
int main(void){
	int n, max = 0, maxx = 0;
	int a[1001] = {0};
	
	cin >> n;
	for(int i = 0; i < n; ++i){
		int m;
		cin >> m;
		for(int j = 0; j < m; ++j){
			int num;
			cin >> num;
			a[num]++;
		}
	}
	
	for(int i = 0; i < 1001; ++i){
		if(a[i] >= max && i > maxx){
			max = a[i];
			maxx = i;
		}
	}
	cout << maxx << " " << max; 
	
	return 0;
}
 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,以下是一个可的实现方案: ```python import requests from bs4 import BeautifulSoup import pandas as pd # 设置请求头 headers = { 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.61 Safari/537.36' } # 发送搜索请求,获取前100个笔记的URL链接 url = 'https://www.xiaohongshu.com/discovery/item/1633566916198?keyword=%E7%BE%8E%E5%A6%86%E5%8C%96%E5%A6%86&mode=word&sort=time' res = requests.get(url, headers=headers) soup = BeautifulSoup(res.text, 'html.parser') notes = soup.find_all('div', {'class': 'note-item'}) urls = [] for note in notes[:100]: urls.append(note.find('a')['href']) # 遍历每个URL链接,获取笔记的作者、阅读量、点赞量和评论量 results = [] for url in urls: res = requests.get(url, headers=headers) soup = BeautifulSoup(res.text, 'html.parser') author = soup.find('div', {'class': 'user-name'}).text read_count = soup.find('div', {'class': 'read-count'}).text.replace('阅读', '').strip() like_count = soup.find('div', {'class': 'like-count'}).text.replace('赞', '').strip() comment_count = soup.find('div', {'class': 'comment-count'}).text.replace('评', '').strip() results.append([author, url, read_count, like_count, comment_count]) # 将结果保存为CSV文件 df = pd.DataFrame(results, columns=['作者', 'URL链接', '阅读量', '点赞量', '评论量']) df.to_csv('notes.csv', index=False) ``` 这段代码会首先发送搜索请求,获取前100个笔记的URL链接,然后遍历每个URL链接,获取笔记的作者、阅读量、点赞量和评论量,并将结果保存为CSV文件。需要注意的是,由于小红书的反爬虫机制比较严格,因此需要设置请求头来模拟浏览器访问。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值