python爬取酷狗音乐top500_Python爬取酷狗音乐TOP500榜单

这篇博客介绍了如何使用Python的requests和BeautifulSoup4库爬取酷狗音乐的Top500歌曲榜单,包括设置请求头避免反爬,解析HTML获取排名、歌名和播放时间,并展示了完整的爬虫代码。
摘要由CSDN通过智能技术生成

最近参加了一个数据挖掘比赛,所以一边比赛,一边学Python/(ㄒoㄒ)/~~,相比被算法折磨的死去活来,python就很友好了(●'◡'●),学了点基础就直接应用了。废话不多说直接开始。

环境配置

我们用到的是 bs4,requests,lxml这三个库来提取,其中bs4是简称,全称是 BeautifulSoup4.0 库。中文名也叫“美丽的汤”,安装也很简单。 打开 cmd 命令行(win + r),输入 pip install bs4 完成安装。pip是一个通用的 Python 包管理工具。提供了对Python 包的查找、下载、安装、卸载的功能。 其他两个库同理。成功会提示Successfully installed xxx。

构造请求头

我们需要安装Chrome浏览器,进入浏览器 Ctrl+Shift+I 呼出开发者工具。接着打开网址:https://www.kugou.com/yy/rank/home/1-8888.html?from=rank ,找到如图所示的User-Agent

什么是请求头? 别人网页区别是人还是机器访问的一种手段,我们设置请求头为浏览器的请求头,对方就会认为我们是人为的访问,从而不会反爬,当然这只是最简单的一种防反爬的手段,一般我们都会带上,代码如下: 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36' 后面代码会用到。

请求访问网页

def get_html(url):

headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) '

'AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36'

}

response = requests.get(url,headers=headers)

if response.status_code == 200:

return response.text

else:

return

response = requests.get(url, headers=headers)

使用 requests 库的 get 方法,去访问网页,第一个参数为网址,第二个参数为请求头,请求结果赋值给变量 response,其中里面有很多结果,状态响应码,网页源码,二进制等

response.status_code == 200

调用请求结果 response 中的 status_code 查看请求状态码,200 代表请求成功,就返回,否则返回一个 None,状态码一般有 2xx,4xx,3xx,5xx,分别代表请求成功,客户端访问失败,重定向,服务器问题。

return response.text

返回响应结果的 text,代表返回网页 html 源码

解析网页

返回了html源码后,我们需要解析网页 html 源码,需要结构化,便于提取数据。

html = BeautifulSoup(html,"lxml") //"lxml"是解析器。

获取数据

选择要提取数据,右键检查。

#rankWrap > div.pc_temp_songlist > ul > li:nth-child(1) > span.pc_temp_num

其中 li:nth-child(1) 需要改成 li,因为 nth-child(1) 是获取 li 标签下的一条数据,我们是要获取这一页的所有排名。 其他数据同理,得到如下代码。

ranks = html.select('#rankWrap > div.pc_temp_songlist > ul > li > span.pc_temp_num')

name = html.select('#rankWrap > div.pc_temp_songlist > ul > li > a')

time = html.select('#rankWrap > div.pc_temp_songlist > ul > li > span.pc_temp_tips_r > span')

整合数据

for r,n,t in zip(ranks,name,time):

r = r.get_text().replace('\n','').replace('\t','').replace('\r','')

n = n.get_text()

t = t.get_text().replace('\n','').replace('\t','').replace('\r','')

用了 zip 函数,意思是把对应的排名,歌名歌手,播放时间打包,可以这样理解 zip 函数的结果是一个列表 [(排名,歌手歌名,播放时间)。 每一次循环的 r,n,t 一次对应元组中的元素

get_text()

我们提取到的是这个数据所在的标签信息,并不是实际数据,所以需要使用 get_text() 获得实际数据

.replace('\n','').replace('\t','').replace('\r','')

去掉实际数据中多余的字符串,最后把数据打包成字典打印。

End!

大体思路到这里就结束了,很多地方用了Python123的专栏。非常感谢原文的作者!!!

完整代码

#酷狗TOP500

import time

import requests

from bs4 import BeautifulSoup

def get_html(url):

headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) '

'AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36'

}

response = requests.get(url,headers=headers)

if response.status_code == 200:

return response.text

else:

return

def get_infos(html):

html = BeautifulSoup(html,"lxml")

ranks = html.select('#rankWrap > div.pc_temp_songlist > ul > li > span.pc_temp_num')

name = html.select('#rankWrap > div.pc_temp_songlist > ul > li > a')

time = html.select('#rankWrap > div.pc_temp_songlist > ul > li > span.pc_temp_tips_r > span')

for r,n,t in zip(ranks,name,time):

r = r.get_text().replace('\n','').replace('\t','').replace('\r','')

n = n.get_text()

t = t.get_text().replace('\n','').replace('\t','').replace('\r','')

data ={

'排名': r,

'歌名-歌手': n,

'播放时间': t

}

print(data)

def main():

urls =['https://www.kugou.com/yy/rank/home/{}-8888.html?from=rank'.format(str(i))for i in range(1,24)]

for url in urls:

html = get_html(url)

get_infos(html)

time.sleep(1)

#if __name__ == '_main_':

if __name__ == '__main__':

main()

### 回答1: 首先需要确定爬取的目标页面,然后使用Python中的网络爬虫库如Requests和BeautifulSoup来获取网页信息并进行解析。具体步骤包括: 1. 发起HTTP请求获取网页源代码 2. 使用BeautifulSoup解析网页源代码并提取出所需信息 3. 将提取的信息存储到文件或数据库中 需要注意的是,爬取音乐网站的数据可能会违反其网站的条款,请确保爬取的合法性。 ### 回答2: Python可以使用第三方库requests和BeautifulSoup模块来爬取网页信息。 首先,我们需要先安装requests和BeautifulSoup模块。可以在终端中使用以下命令安装: ``` pip install requests pip install BeautifulSoup ``` 接着,我们需要了解酷狗音乐top500的网页结构,可以打开酷狗音乐top500的页面(https://www.kugou.com/yy/rank/home/1-8888.html),在页面右键选择“查看网页源代码”,查看网页结构。 通过观察网页源代码,我们可以发现每个歌曲都被包含在一个li标签中,并且每个li标签都包含了歌曲的名字、演唱者、排名等信息。因此,我们可以通过BeautifulSoup模块来获取每个li标签中的信息。 下面是一个Python程序,可以实现爬取酷狗音乐top500并将歌曲名字、演唱者以及排名信息存储到一个txt文件中: ```python import requests from bs4 import BeautifulSoup url = 'https://www.kugou.com/yy/rank/home/1-8888.html' html = requests.get(url).text soup = BeautifulSoup(html, 'html.parser') # 获取歌曲信息 song_list = [] for li in soup.select('.pc_temp_songlist > ul > li'): rank = li.select('.pc_temp_num')[0].get_text().strip() song_name = li.select('.pc_temp_songname > a')[0].get_text().strip() singer = li.select('.pc_temp_songname > span > a')[0].get_text().strip() song_list.append(rank + ' ' + song_name + ' - ' + singer) # 将歌曲信息写入txt文件 with open('kugou_music_top500.txt', 'w', encoding='utf-8') as f: f.write('\n'.join(song_list)) ``` 代码解释: 1. 使用requests库获取网页的html代码。 2. 使用BeautifulSoup将html代码解析成soup对象。 3. 通过查看网页源代码,找到包含歌曲信息的li标签,并通过select方法获取li标签。 4. 对于每个li标签,通过select方法获取他们的排名、歌曲名字以及演唱者,并存储到song_list列表中。 5. 使用open函数创建一个txt文件,并将song_list列表中的歌曲信息写入txt文件。 最后,运行程序,就可以得到一个包含酷狗音乐top500歌曲的txt文件。 ### 回答3: 要实现Python爬取酷狗音乐Top500,需要进行以下步骤: 1. 分析目标网站并获取URL 首先,我们需要打开浏览器访问 https://www.kugou.com/yy/rank/home/1-8888.html,并找到想要爬取的信息。在这个示例中,我们想要获取酷狗音乐Top500歌曲的信息。我们需要使用开发者工具(Inspect)来查找这些信息的位置。在这个示例中,我们可以在音乐列表下使用开发者工具,找到页面源代码中的歌曲排名信息。 第二步是获取URL。我们需要提取出所有酷狗音乐Top500的URL,以便我们可以访问每个页面上的音乐信息。我们可以使用Python的requests库来获取每个页面。 2. 解析HTML页面 一旦我们访问了每个页面,我们需要解析HTML页面来获取音乐信息。在这个示例中,我们使用Python的BeautifulSoup库来解析HTML。我们可以使用find()函数找到每个页面上的歌曲信息。 3. 存储音乐信息 一旦我们解析了每个HTML页面,我们可以将它们的信息存储在一个CSV文件中。CSV是一种常用的数据存储格式,可以轻松地导入到Excel或其他电子表格程序中。 4. 编写Python脚本 编写Python脚本来实现这个功能。以下是一个代码示例,用于Python实现酷狗音乐Top500爬虫: ``` import requests from bs4 import BeautifulSoup import csv def get_html(url): r = requests.get(url) return r.text def get_data(html): soup = BeautifulSoup(html, 'lxml') songs_list = soup.find('div', class_='pc_temp_songlist').find_all('tr', class_='js_song') for song in songs_list: song_num = song.find('span', class_='pc_temp_num').text.strip() song_name = song.find('a', class_='pc_temp_songname').text.strip() song_singer = song.find('a', class_='pc_temp_singer').text.strip() song_album = song.find('a', class_='pc_temp_album').text.strip() song_time = song.find('span', class_='pc_temp_time').text.strip() print(song_num, song_name, song_singer, song_album, song_time) write_csv(song_num, song_name, song_singer, song_album, song_time) def write_csv(song_num, song_name, song_singer, song_album, song_time): with open('kugou.csv', 'a', newline='', encoding='utf-8') as f: writer = csv.writer(f) writer.writerow((song_num, song_name, song_singer, song_album, song_time)) def main(): url = 'https://www.kugou.com/yy/rank/home/1-8888.html?from=rank' html = get_html(url) get_data(html) if __name__ == '__main__': main() ``` 这个脚本将酷狗音乐Top500的歌曲信息写入CSV文件中。我们使用requests和BeautifulSoup库来访问和解析每个页面,然后使用CSV库将每个歌曲的信息写入文件。 5. 运行脚本 现在,我们可以运行脚本来获取酷狗音乐Top500的歌曲。只需要运行Python解释器,输入脚本名称,然后按回车键即可。在Windows中,你可以运行Python命令提示符并输入“python kugou.py”(名为kugou.py的Python脚本)。在Mac和Linux系统中,你可以在命令终端中输入相同的命令。脚本执行时间将取决于所需的页面数量。完成后,你将获得一个CSV文件,其中包含酷狗音乐Top500的所有歌曲信息。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值