python爬虫爬取网易云热歌榜top200

爬取网易热歌榜

爬虫小练习

import requests
from lxml import etree

# 热歌榜首页网址
url = 'https://music.163.com/discover/toplist?id=3778678'
# 歌曲下载链接前半部分
url_base = 'http://music.163.com/song/media/outer/url?id='
# U-A伪装,模拟浏览器
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 '
                  '(KHTML, like Gecko) Chrome/85.0.4183.121 Safari/537.36'}
# 抓取网站信息并使用etree预处理数据
response = requests.get(url=url, headers=headers)
html = etree.HTML(response.text)
# 原始id、name列表(包含无关信息)
raw_id_list = html.xpath('//a[contains(@href, "song?")]/@href')
raw_name_list = html.xpath('//a[contains(@href, "song?")]/text()')
id_list = []
name_list = []
# 过滤无关信息,得到纯净列表
for id in raw_id_list:
    music_id = id.split('=')[1]
    if '$' not in music_id:
        id_list.append(music_id)
for music_name in raw_name_list:
    if '{' not in music_name:
        name_list.append(music_name)
 # 遍历所有歌曲
for i in range(len(id_list)):
	# 完整下载链接 
    music_url = url_base + id_list[i]
    # 对应歌曲名称
    music_name = name_list[i]
    # 获取每首歌取得具体信息
    music = requests.get(url=music_url, headers=headers)
    # 以二进制形式写入到本文件夹的(具体保存路径可自己修改)
    with open('./%s.mp3' % music_name, 'wb') as file:
        file.write(music.content)
        print('<%s>下载成功...' % music_name)


  • 5
    点赞
  • 48
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

SimpleZihao

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值