爬取酷狗榜单中的top500

首先先看到top500的页面,如下图所示


网页版的酷狗没有翻页的操作,所以不能看到后面页数的链接,根据第一页的链接,http://www.kugou.com/yy/rank/home/1-8888.html   我们尝试把链接里面的数字1改为2,果然跳转到第二页去了,这样就好办了,每页显示22条歌曲,所以经过计算,需要23条url链接,后面自己手动创建url

具体的操作和解释都下面代码中

# -*- encoding:utf8 -*-
import requests
from bs4 import BeautifulSoup
import itertools
import time

# 请求头,用来伪装为浏览器
headers = {
    "User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36"
}

# 定义获取信息的函数
def get_info(url):
    wb_data = requests.get(url,headers=headers)
    soup = BeautifulSoup(wb_data.text,"lxml")
    # 排名
    ranks = soup.select("span.pc_temp_num")
    # 标题
    titles = soup.select("div.pc_temp_songlist > ul > li > a")
    # 时间
    times = soup.select("span.pc_temp_tips_r > span")
    # itertools.izip()函数可以平行的迭代多个数组,python2.7里面用izip(),3.6版本的则用zip()更好
    for rank,title,time in itertools.izip(ranks,titles,times):
        data = {
            "rank":rank.text.strip(),
            # 字符串的分片
            "singer":title.text.split("-")[0],
            "song":title.text.split("-")[1],
            "time":time.text.strip(),
            "href":title.get("href")
        }
        print data

# 程序的入口
if __name__ == "__main__":
    # 创建多页的url
    urls = ["http://www.kugou.com/yy/rank/home/{}-8888.html".format(number) for number in range(1,24)]
    for i in urls:
        get_info(i)
    # 休眠2秒
    time.sleep(2)

# 下面的代码可以更好的理解["http://www.kugou.com/yy/rank/home/{}-8888.html".format(number) for number in range(1,24)]
# for i in range(1,23):
#     urls = ["http://www.kugou.com/yy/rank/home/{}-8888.html".format(i)]
#     print urls


  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 可以使用Python编写虫程序,通过模拟用户访问酷狗音乐排行页面,获排行中的歌曲信息。具体步骤如下: 1. 使用requests库发送HTTP请求,获酷狗音乐排行页面的HTML源码。 2. 使用BeautifulSoup库解析HTML源码,获歌曲信息。 3. 将歌曲信息保存到本地文件或数据库中。 4. 通过循环遍历,获排行中的前500首歌曲信息。 需要注意的是,虫程序需要遵守网站的虫协议,不要过于频繁地访问同一页面,以免被封禁IP。同时,也需要注意数据的合法性和隐私保护。 ### 回答2: Python是一门优秀的编程语言,在网络虫方面应用广泛。通过Python虫,我们可以获大量互联网上的数据,其中包括酷狗排行的歌曲。 酷狗排行前500首歌曲,我们可以通过以下几个步骤实现。 步骤一:酷狗排行数据 要完成这一步骤,我们需要使用Python的请求模块requests,来获网页的源代码。在此基础上,我们需要使用Python的第三方库Beautiful Soup4,来解析HTML源代码,找到我们需要的数据。 步骤二:提酷狗排行前500首歌曲信息 将酷狗排行的数据提出来,可以存储在Python中的列表中,每一条歌曲数据为一个字典,包括歌曲名称、歌手、专辑、时长、链接等等数据。 步骤三:将获到的数据保存成CSV格式文件 CSV文件是一种常用的数据格式,常常用于将数据在不同应用程序之间共享。Python中可以使用csv模块来生成、读、写入CSV文件。 通过以上三步,我们就可以成功酷狗排行前500首歌曲信息,并保存为CSV格式文件。具体实现过程可以通过以下代码来完成: ```python import requests import csv from bs4 import BeautifulSoup def get_data(url): # 发送请求,获HTML源代码 response = requests.get(url) html = response.text # 使用Beautiful Soup解析HTML源代码,提数据 soup = BeautifulSoup(html, 'html.parser') song_list = soup.select('.pc_temp_songlist li') # 将数据存储在列表中,每一条数据为一个字典,包括歌曲名称、歌手、专辑、时长、链接等等数据 data_list = [] for song in song_list: rank = song.select('.pc_temp_num')[0].text.strip() name = song.select('.pc_temp_songname a')[0].text.strip() singer = song.select('.pc_temp_songname a')[1].text.strip() album = song.select('.pc_temp_songname a')[2].text.strip() time = song.select('.pc_temp_time')[0].text.strip() link = 'https://www.kugou.com' + song.select('.pc_temp_songname a')[0]['href'] data = { 'rank': rank, 'name': name, 'singer': singer, 'album': album, 'time': time, 'link': link } data_list.append(data) return data_list def save_data(data_list): # 将获到的数据保存成CSV格式文件 with open('kugou_top_500.csv', 'w', newline='', encoding='utf-8') as f: writer = csv.DictWriter(f, fieldnames=['rank', 'name', 'singer', 'album', 'time', 'link']) writer.writeheader() for data in data_list: writer.writerow(data) if __name__ == '__main__': url = 'https://www.kugou.com/yy/rank/home/1-8888.html?from=rank' data_list = get_data(url) save_data(data_list) ``` 以上代码可以实现酷狗排行前500首歌曲,并将其保存为CSV格式文件的功能。通过Python虫技术,我们不仅可以获互联网上的大量数据,还能够为数据分析和挖掘提供更精准、更全面的数据支撑。 ### 回答3: Python作为一种高级编程语言,具有很多优秀的虫库,如Requests、BeautifulSoup、Selenium等等。通过使用这些库,我们可以很方便地实现对酷狗音乐排行top500的。 首先,我们需要分析一下酷狗音乐排行的页面结构。通过浏览器开发者工具,我们可以很快地找到每首歌曲的信息,例如歌曲名称、歌手、歌曲ID等等。这些信息的CSS选择器可以通过查看HTML源码得到。 然后,我们需要使用Requests库向酷狗音乐排行的页面发送请求,获HTML源码。通过解析HTML源码,我们可以得到歌曲信息的相关内容,包括歌曲名称、歌手、专辑、播放时长等等。在解析HTML源码之前,我们还需要注意选择编码方式,进行正确的解码。 最后,我们可以将歌曲信息保存到本地文件、数据库或其他形式的存储方式中。对于虫过程中的异常情况,我们需要使用异常处理机制来避免程序崩溃。 此外,还需要注意一些虫的规范,如设置合理的请求头、设置请求间隔时间等等,以避免因为过快的造成服务器的反虫措施。 总之,通过使用Requests、BeautifulSoup、Selenium等虫库,我们可以很方便地实现对酷狗音乐排行top500的。但是,我们在开发虫时也需要学习和遵守相关规范,以确保程序的合法性和可持续性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值