使用Python对酷狗排行榜进行爬取 BeautifulSoup

使用Python对酷狗排行榜爬取

1. 设置自定义请求头

headers = {
  'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'
}

这里设置了一个自定义请求头,特别是User-Agent。它用于模拟浏览器访问,因为一些网站可能会基于用户代理(User-Agent)来区分请求是由真实用户的浏览器发出还是由爬虫发出。

2. 设置要爬取的页数

songs = []
for page in range(1, 24):
    songs.extend(match_songs(page))

因为top500每页22个所以是500/22+1=23页。这里我们做了一个循环用来爬取这么多页,然后将爬取的内容使用extend函数扩展保存起来。

而match_songs就是我们定义的爬取函数

3. 发送网络请求(下面是match_songs函数)

    url = f'https://www.kugou.com/yy/rank/home/{page}-8888.html'
    response = requests.get(url, headers=headers)
    html_content = response.text

定义了连接,因为是不不同页数就把页数的部分改为输入的值page

使用requests.get发送一个GET请求到上述URL,并传入之前设置的headers。

response.text包含了网页的HTML内容。

4. 解析HTML内容

soup = BeautifulSoup(html_content, 'html.parser')

这里使用BeautifulSoup解析获取到的HTML内容。

'html.parser’是用于解析HTML的解析器。

5. 提取歌曲信息

page_songs = []
for li in soup.find_all('li', {'title': True}):
  rank = li.find('span', class_='pc_temp_num').get_text(strip=True).strip('.')
  full_title = li.get('title')

初始化一个空列表songs来存储歌曲信息。

使用find_all方法查找所有具有title属性的li标签。

对于每个li标签:

提取排名(位于类名为pc_temp_num的span标签内)。

提取完整的歌曲标题。

6. 筛选排名含某个数字的

if '8' in rank:

如果排名中包含数字“8”,则进行进一步处理。

7. 分离歌手和歌曲名称

parts = full_title.split(' - ')
if len(parts) >= 2:
	artist = parts[0]
	song = ' - '.join(parts[1:])
	page_songs.append({"排名": rank, "歌曲": song, "歌手": artist})
    return page_songs

使用split方法以“-”为分隔符分割标题。

第一部分被认为是艺术家(歌手)的名字,剩余部分合并为歌曲名称。

将提取的数据添加到songs列表中,并返回歌曲列表

8. 将结果保存到CSV文件

csv_file = '酷狗排行榜含8的歌曲.csv'

with open(csv_file, 'w', newline='', encoding='utf-8-sig') as file:
	writer = csv.DictWriter(file, fieldnames=["排名", "歌曲","歌手"])
	writer.writeheader()
	for song in songs:
		writer.writerow(song)

定义CSV文件的名称。

打开文件并创建一个csv.DictWriter对象,用于写入数据。

写入表头,然后遍历songs列表,将每首歌的信息写入文件。

完整代码

import csv
from bs4 import BeautifulSoup
import requests

def match_songs(page):
    url = f'https://www.kugou.com/yy/rank/home/{page}-8888.html'
    response = requests.get(url, headers=headers)
    html_content = response.text

    soup = BeautifulSoup(html_content, 'html.parser')
    page_songs = []
    for li in soup.find_all('li', {'title': True}):
        rank = li.find('span', class_='pc_temp_num').get_text(strip=True).strip('.')
        full_title = li.get('title')
        if '8' in rank:
            parts = full_title.split(' - ')
            if len(parts) >= 2:
                artist = parts[0]
                song = ' - '.join(parts[1:])
                page_songs.append({"排名": rank, "歌曲": song, "歌手": artist})
    return page_songs

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'
}

songs = []
for page in range(1, 24):     		    songs.extend(match_songs(page))

csv_file = '酷狗排行榜含8的歌曲.csv'
with open(csv_file, 'w', newline='', encoding='utf-8-sig') as file:
    writer = csv.DictWriter(file, fieldnames=["排名", "歌曲", "歌手"])
    writer.writeheader()
    for song in songs:
        writer.writerow(song)
  • 4
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值