【python】爬取酷狗音乐Top500排行榜【附源码】

英杰社区icon-default.png?t=N7T8https://bbs.csdn.net/topics/617804998

 一、导入必要的模块:

    这篇博客将介绍如何使用Python编写一个爬虫程序,从斗鱼直播网站上获取图片信息并保存到本地。我们将使用requests模块发送HTTP请求和接收响应,以及os模块处理文件和目录操作。

        如果出现模块报错

        进入控制台输入:建议使用国内镜像源

pip install requests -i https://mirrors.aliyun.com/pypi/simple

         我大致罗列了以下几种国内镜像源:

        

清华大学
https://pypi.tuna.tsinghua.edu.cn/simple

阿里云
https://mirrors.aliyun.com/pypi/simple/

豆瓣
https://pypi.douban.com/simple/ 

百度云
https://mirror.baidu.com/pypi/simple/

中科大
https://pypi.mirrors.ustc.edu.cn/simple/

华为云
https://mirrors.huaweicloud.com/repository/pypi/simple/

腾讯云
https://mirrors.cloud.tencent.com/pypi/simple/

    

二、发送GET请求获取响应数据:

        设置了请求头部信息,以模拟浏览器的请求,函数返回响应数据的JSON格式内容。

def get_html(url):
    header = {
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36'
    }
    response = requests.get(url=url, headers=header)
    # print(response.json())
    html = response.json()
    return html

        如何获取请求头:

        火狐浏览器:
  1. 打开目标网页并右键点击页面空白处。
  2. 选择“检查元素”选项,或按下快捷键Ctrl + Shift + C(Windows)
  3. 在开发者工具窗口中,切换到“网络”选项卡。
  4. 刷新页面以捕获所有的网络请求。
  5. 在请求列表中选择您感兴趣的请求。
  6. 在右侧的“请求标头”或“Request Headers”部分,即可找到请求头信息。

     将以下请求头信息复制出来即可

三、爬取酷狗TOP500排行榜

        从酷狗音乐排行榜中提取歌曲的排名、歌名、歌手和时长等信息

        

        具体步骤如下:

  1. 导入需要的模块:requests用于发送HTTP请求,BeautifulSoup用于解析HTML,time用于控制爬虫的速度。

  2. 设置请求头部信息:通过headers字典设置了User-Agent,模拟浏览器发送请求,防止被网站封禁。

  3. 定义函数get_info(url):该函数接收一个URL参数,用于爬取指定网页的信息。

  4. 发送网络请求并解析HTML:使用requests.get()函数发送GET请求获取网页的HTML内容,并使用BeautifulSoup模块解析HTML。

  5. 通过CSS选择器定位需要的信息:使用select()方法根据CSS选择器定位到歌曲的排名、歌名和时长等元素。

  6. 循环遍历每个信息并存储到字典中:使用zip()函数将排名、歌名和时长等元素打包成一个迭代器,然后通过循环遍历,将每个信息存储到data字典中。

  7. 打印获取到的信息:使用print()函数打印data字典中的信息。

  8. 主程序入口:使用if __name__ == '__main__':判断当前文件是否被直接执行,如果是则执行以下代码。

  9. 构造要爬取的页面地址列表:使用列表推导式构造一个包含要爬取的页面地址的列表。

  10. 调用函数获取页面信息:使用for循环遍历页面地址列表,并调用get_info()函数获取每个页面的信息。

  11. 控制爬虫速度:使用time.sleep()函数控制爬虫的速度,防止过快被封IP。

源码:

    如果你对白嫖、有偿返现活动,感兴趣:可以关注:https://bbs.csdn.net/topics/617804998

import requests  # 发送网络请求,获取 HTML 等信息
from bs4 import BeautifulSoup  # 解析 HTML 信息,提取需要的信息
import time  # 控制爬虫速度,防止过快被封IP


headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/97.0.4692.71 Safari/537.36"
    # 添加浏览器头部信息,模拟请求
}

def get_info(url):
    # 参数 url :要爬取的网页地址
    web_data = requests.get(url, headers=headers)  # 发送网络请求,获取 HTML 等信息
    soup = BeautifulSoup(web_data.text, 'lxml')  # 解析 HTML 信息,提取需要的信息

    # 通过 CSS 选择器定位到需要的信息
    ranks = soup.select('span.pc_temp_num')
    titles = soup.select('div.pc_temp_songlist > ul > li > a')
    times = soup.select('span.pc_temp_tips_r > span')
    
    # for 循环遍历每个信息,并将其存储到字典中
    for rank, title, time in zip(ranks, titles, times):
        data = {
            "rank": rank.get_text().strip(),  # 歌曲排名
            "singer": title.get_text().replace("\n", "").replace("\t", "").split('-')[1],  # 歌手名
            "song": title.get_text().replace("\n", "").replace("\t", "").split('-')[0],  # 歌曲名
            "time": time.get_text().strip()  # 歌曲时长
        }
        print(data)  # 打印获取到的信息

if __name__ == '__main__':
    urls = ["https://www.kugou.com/yy/rank/home/{}-8888.html".format(str(i)) for i in range(1, 24)]
    # 构造要爬取的页面地址列表
    for url in urls:
        get_info(url)  # 调用函数,获取页面信息
        time.sleep(1)  # 控制爬虫速度,防止过快被封IP

效果图:

  给大家推荐一个网站

    IT今日热榜 一站式资讯平台


        里面包含了上百个IT网站,欢迎大家访问:IT今日热榜 一站式资讯平台

   iToday,打开信息的新时代。作为一家创新的IT数字媒体平台,iToday致力于为用户提供最新、最全面的IT资讯和内容。里面包含了技术资讯、IT社区、面试求职、前沿科技等诸多内容。我们的团队由一群热爱创作的开发者和分享的专业编程知识爱好者组成,他们精选并整理出真实可信的信息,确保您获得独特、有价值的阅读体验。随时随地,尽在iToday,与世界保持连接,开启您的信息新旅程!

IT今日热榜 一站式资讯平台IT今日热榜汇聚各类IT热榜:虎嗅、知乎、36氪、京东图书销售、晚点、全天候科技、极客公园、GitHub、掘金、CSDN、哔哩哔哩、51CTO、博客园、GitChat、开发者头条、思否、LeetCode、人人都是产品经理、牛客网、看准、拉勾、Boss直聘http://itoday.top/#/

  • 54
    点赞
  • 117
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 26
    评论
### 回答1: 首先需要确定爬取的目标页面,然后使用Python中的网络爬虫库如Requests和BeautifulSoup来获取网页信息并进行解析。具体步骤包括: 1. 发起HTTP请求获取网页源代码 2. 使用BeautifulSoup解析网页源代码并提取出所需信息 3. 将提取的信息存储到文件或数据库中 需要注意的是,爬取音乐网站的数据可能会违反其网站的条款,请确保爬取的合法性。 ### 回答2: Python可以使用第三方库requests和BeautifulSoup模块来爬取网页信息。 首先,我们需要先安装requests和BeautifulSoup模块。可以在终端中使用以下命令安装: ``` pip install requests pip install BeautifulSoup ``` 接着,我们需要了解酷狗音乐top500的网页结构,可以打开酷狗音乐top500的页面(https://www.kugou.com/yy/rank/home/1-8888.html),在页面右键选择“查看网页源代码”,查看网页结构。 通过观察网页源代码,我们可以发现每个歌曲都被包含在一个li标签中,并且每个li标签都包含了歌曲的名字、演唱者、排名等信息。因此,我们可以通过BeautifulSoup模块来获取每个li标签中的信息。 下面是一个Python程序,可以实现爬取酷狗音乐top500并将歌曲名字、演唱者以及排名信息存储到一个txt文件中: ```python import requests from bs4 import BeautifulSoup url = 'https://www.kugou.com/yy/rank/home/1-8888.html' html = requests.get(url).text soup = BeautifulSoup(html, 'html.parser') # 获取歌曲信息 song_list = [] for li in soup.select('.pc_temp_songlist > ul > li'): rank = li.select('.pc_temp_num')[0].get_text().strip() song_name = li.select('.pc_temp_songname > a')[0].get_text().strip() singer = li.select('.pc_temp_songname > span > a')[0].get_text().strip() song_list.append(rank + ' ' + song_name + ' - ' + singer) # 将歌曲信息写入txt文件 with open('kugou_music_top500.txt', 'w', encoding='utf-8') as f: f.write('\n'.join(song_list)) ``` 代码解释: 1. 使用requests库获取网页的html代码。 2. 使用BeautifulSoup将html代码解析成soup对象。 3. 通过查看网页源代码,找到包含歌曲信息的li标签,并通过select方法获取li标签。 4. 对于每个li标签,通过select方法获取他们的排名、歌曲名字以及演唱者,并存储到song_list列表中。 5. 使用open函数创建一个txt文件,并将song_list列表中的歌曲信息写入txt文件。 最后,运行程序,就可以得到一个包含酷狗音乐top500歌曲的txt文件。 ### 回答3: 要实现Python爬取酷狗音乐Top500,需要进行以下步骤: 1. 分析目标网站并获取URL 首先,我们需要打开浏览器访问 https://www.kugou.com/yy/rank/home/1-8888.html,并找到想要爬取的信息。在这个示例中,我们想要获取酷狗音乐Top500歌曲的信息。我们需要使用开发者工具(Inspect)来查找这些信息的位置。在这个示例中,我们可以在音乐列表下使用开发者工具,找到页面源代码中的歌曲排名信息。 第二步是获取URL。我们需要提取出所有酷狗音乐Top500的URL,以便我们可以访问每个页面上的音乐信息。我们可以使用Python的requests库来获取每个页面。 2. 解析HTML页面 一旦我们访问了每个页面,我们需要解析HTML页面来获取音乐信息。在这个示例中,我们使用Python的BeautifulSoup库来解析HTML。我们可以使用find()函数找到每个页面上的歌曲信息。 3. 存储音乐信息 一旦我们解析了每个HTML页面,我们可以将它们的信息存储在一个CSV文件中。CSV是一种常用的数据存储格式,可以轻松地导入到Excel或其他电子表格程序中。 4. 编写Python脚本 编写Python脚本来实现这个功能。以下是一个代码示例,用于Python实现酷狗音乐Top500爬虫: ``` import requests from bs4 import BeautifulSoup import csv def get_html(url): r = requests.get(url) return r.text def get_data(html): soup = BeautifulSoup(html, 'lxml') songs_list = soup.find('div', class_='pc_temp_songlist').find_all('tr', class_='js_song') for song in songs_list: song_num = song.find('span', class_='pc_temp_num').text.strip() song_name = song.find('a', class_='pc_temp_songname').text.strip() song_singer = song.find('a', class_='pc_temp_singer').text.strip() song_album = song.find('a', class_='pc_temp_album').text.strip() song_time = song.find('span', class_='pc_temp_time').text.strip() print(song_num, song_name, song_singer, song_album, song_time) write_csv(song_num, song_name, song_singer, song_album, song_time) def write_csv(song_num, song_name, song_singer, song_album, song_time): with open('kugou.csv', 'a', newline='', encoding='utf-8') as f: writer = csv.writer(f) writer.writerow((song_num, song_name, song_singer, song_album, song_time)) def main(): url = 'https://www.kugou.com/yy/rank/home/1-8888.html?from=rank' html = get_html(url) get_data(html) if __name__ == '__main__': main() ``` 这个脚本将酷狗音乐Top500的歌曲信息写入CSV文件中。我们使用requests和BeautifulSoup库来访问和解析每个页面,然后使用CSV库将每个歌曲的信息写入文件。 5. 运行脚本 现在,我们可以运行脚本来获取酷狗音乐Top500的歌曲。只需要运行Python解释器,输入脚本名称,然后按回车键即可。在Windows中,你可以运行Python命令提示符并输入“python kugou.py”(名为kugou.py的Python脚本)。在Mac和Linux系统中,你可以在命令终端中输入相同的命令。脚本执行时间将取决于所需的页面数量。完成后,你将获得一个CSV文件,其中包含酷狗音乐Top500的所有歌曲信息。
评论 26
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Yan-英杰

感谢大佬打赏,我会更加努力创作

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值