Python爬虫入门教程14:喜马拉雅有声书音频爬取

基本开发环境💨
Python 3.6
Pycharm
相关模块的使用💨
import requests
import os
安装Python并添加到环境变量,pip安装需要的相关模块即可。

一、💥明确目标
爬取免费的播放量最多的有声书,如果你想要爬取付费的也是可以,那你得先开一个会员,
爬虫是看的到才能爬。
在这里插入图片描述

二、💥网页数据分析
点击任意一个音频章节点击播放。在开发者工具中选择 Media 会加载出一个数据
在这里插入图片描述

复制这个链接会自动下载一个可播放的音频文件。在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

听内容是和网站上面的有声小说是一样的。所以这个就是音频数据的真实url地址。
接下来就要分析找到这个数据来源。
在这里插入图片描述

在开发者工具中python基础教程搜索 wKgJJ1eKo-3xGS0KAFIc8J_87NE024 框选的内容就是音频本身,所有查看第一个地址。
在这里插入图片描述

https://www.ximalaya.com/revision/play/v1/audio?id=18556416&ptype=1
这个数据里面包含了音频地址。

其实这个 id=18556416 就是每个音频的ID值了。同样的在开发者工具中进行搜索。
在这里插入图片描述

有声书名字,音频ID,章节名字都有了。但是当我查看第二页数据的时候发现,并不是这个链接,而是另外一个链接。

https://www.ximalaya.com/revision/album/v1/getTracksList?albumId=4756811&pageNum=2
在这里插入图片描述

还是有一些区别的,所以我们应该请求的是第二个链接

😀 整体思路分析
1、通过 ‘https://www.ximalaya.com/revision/album/v1/getTracksList?albumId=4756811&pageNum=2’
url地址获取每章音频的ID以及章节名字
2、通过 ‘https://www.ximalaya.com/revision/play/v1/audio?id=18556416&ptype=1’ url地址获取
每章音频的下载地址
3、请求音频地址,进行本地保存
三、💥代码实现
1、获取获取每章音频的ID以及章节名字

def get_audio_info(html_url):
    json_data = get_response(html_url).json()
    audio_info = json_data['data']['tracks']
    for index in audio_info:
        # 音频ID
        audio_id = index['trackId']
        # 章节名字
        audio_title = index['title']
        # 有声书小说名字 《摸金天师》第001章 百辟刀
        audio_name = audio_title.split('第')[0]

2、获取音频url

def get_audio_url(audio_id):
    page_url = f'https://www.ximalaya.com/revision/play/v1/audio?id={audio_id}&ptype=1'
    json_data = get_response(page_url).json()
    audio_url = json_data['data']['src']
    return audio_url

3、保存音频

def save(name, title, audio_url):
    path = f'{name}\\'
    if not os.path.exists(path):
        os.makedirs(path)
    audio_content = get_response(audio_url).content
    with open(path + title + '.m4a', mode='wb') as f:
        f.write(audio_content)
        print('正在保存:', title)
💥完整实现代码
import requests
import os


def get_response(html_url):
    header = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'
    }
    response = requests.get(url=html_url, headers=header)
    return response


def save(name, title, audio_url):
    path = f'{name}\\'
    if not os.path.exists(path):
        os.makedirs(path)
    audio_content = get_response(audio_url).content
    with open(path + title + '.m4a', mode='wb') as f:
        f.write(audio_content)
        print('正在保存:', title)


def get_audio_url(audio_id):
    page_url = f'https://www.ximalaya.com/revision/play/v1/audio?id={audio_id}&ptype=1'
    json_data = get_response(page_url).json()
    audio_url = json_data['data']['src']
    return audio_url


def get_audio_info(html_url):
    json_data = get_response(html_url).json()
    audio_info = json_data['data']['tracks']
    for index in audio_info:
        # 音频ID
        audio_id = index['trackId']
        # 章节名字
        audio_title = index['title']
        # 有声书小说名字 《摸金天师》第001章 百辟刀
        audio_name = audio_title.split('第')[0]
        audio_url = get_audio_url(audio_id)
        save(audio_name, audio_title, audio_url)


if __name__ == '__main__':
    for page in range(1, 39):
        url = f'https://www.ximalaya.com/revision/album/v1/getTracksList?albumId=4756811&pageNum={page}'
        get_audio_info(url)

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

  • 6
    点赞
  • 33
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python爬虫可以用来爬取音频文件。你可以使用Python的requests库发送HTTP请求来获取网页内容,然后使用正则表达式或其他解析库来提取音频文件的URL。接下来,你可以使用requests库再次发送HTTP请求来下载音频文件并保存到本地。 以下是一个示例代码,用于爬取音频文件: ```python import requests import re # 设置请求头 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36' } # 发送请求获取网页内容 url = 'https://music.163.com/discover/toplist?id=3778678' response = requests.get(url=url, headers=headers) html_data = response.text # 解析数据,提取音频文件URL info_list = re.findall(r'lio<a href="/song \?id=(.*?)"">(.*?)</a></li>', html_data) for music_id, title in info_list: music_url = f'http://music.163.com/song/media/outer/url?id={music_id}.mp3' music_content = requests.get(url=music_url, headers=headers).content # 保存音频文件 with open(title + '.mp3', mode='wb') as f: f.write(music_content) print(f'{title} 下载完成') ``` 请注意,这只是一个示例代码,具体的爬取方法可能因网站结构的不同而有所差异。在实际应用中,你可能需要根据目标网站的具体情况进行适当的调整和优化。 #### 引用[.reference_title] - *1* *2* [Python爬虫实战,Request+urllib模块,批量下载爬取飙歌榜所有音乐文件](https://blog.csdn.net/weixin_49892805/article/details/128375760)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [Python爬虫实战,requests模块,Python爬取音频数据并保存本地](https://blog.csdn.net/Modeler_xiaoyu/article/details/128161023)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值