如何获取json的payload内容,并爬取网易云的python课程信息

爬虫案例:网易云Python课程

昨天写了一个案例,用json数据去爬取网易云课堂的课程内容,使用了payload和headers,但是网页内容太多,payload很难找到。
找一下网页内容,按F12进入开发者模式:
payload和headers
给出代码:

FileName = "制表"
''''''
import requests
import xlsxwriter
def get_json(index):
    data = '''
    爬取课程的json数据
    :param index:当前索引,从0开始
    :return: Json数据
    '''
    url = 'https://study.163.com/p/search/studycourse.json'
    payload = {
        "activityID": 0,
        "keyword": "python",
        "orderType": 5,
        "pageIndex": index + 1,
        "pageSize": 50,
        "priceType": 0,
        "relativeOffset": 0,
        "searchTimeType": -1,
    }

    headers = {
        "accept": "application/json",
        "host": "study.163.com",
        "contentType": "application/json",
        "origin": "https://study.163.com",
        "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.212 Safari/537.36"
    }
    try:
        response = requests.post(url, json=payload, headers=headers)  # 发送post请求
        # 获取JSON数据
        content_json = response.json()
        # print(content_json)
        if content_json and content_json['code']==0:#判断数据是否存在
            return content_json
        else:
            return None
    except Exception as e:
        print("出错了")
        print(e)

def get_content(content_json):
    data = '''
    获取课程信息列表
    :param content_json:获取的json格式数据 
    :return: 课程数据
    '''
    if 'result' in content_json:
        return content_json['result']['list']  # 返回课程数据列表

def save_excel(content,index):
    data = '''
    将数据存储到excel表中
    :param content:课程内容 
    :param index: 索引值,从0开始
    :return: None
    '''
    for num,item in enumerate(content):
        # print(num,item)   # 打印课程信息
        row = 50 * index + (num + 1)
        worksheet.write(row, 0, item['productId'])
        worksheet.write(row, 1, item['courseId'])
        worksheet.write(row, 2, item['productName'])
        worksheet.write(row, 3, item['productType'])
        worksheet.write(row, 4, item['provider'])
        worksheet.write(row, 5, item['score'])
        worksheet.write(row, 6, item['scoreLevel'])
        worksheet.write(row, 7, item['learnerCount'])
        worksheet.write(row, 8, item['lessonCount'])
        worksheet.write(row, 9, item['lectorName'])
        worksheet.write(row, 10, item['originalPrice'])
        worksheet.write(row, 11, item['discountPrice'])
        worksheet.write(row, 12, item['discountRate'])
        worksheet.write(row, 13, item['imgUrl'])
        worksheet.write(row, 14, item['bigImgUrl'])
        worksheet.write(row, 15, item['description'])
def main(index):
    content_json = get_json(1)
    content = get_content(content_json)
    save_excel(content, index)
if __name__ == '__main__':
    print("开始执行")
    # 创建一个excel表格
    workbook = xlsxwriter.Workbook('网易云课堂python课堂数据.xlsx')
    worksheet = workbook.add_worksheet('first_sheet')
    worksheet.write(0, 0, '商品ID')
    worksheet.write(0, 1, '课程ID')
    worksheet.write(0, 2, '商品名称')
    worksheet.write(0, 3, '商品类型')
    worksheet.write(0, 4, '机构名称')
    worksheet.write(0, 5, '评分')
    worksheet.write(0, 6, '评分等级')
    worksheet.write(0, 7, '学习人数')
    worksheet.write(0, 8, '课程节数')
    worksheet.write(0, 9, '讲师名称')
    worksheet.write(0, 10, '原价')
    worksheet.write(0, 11, '折扣价')
    worksheet.write(0, 12, '折扣率')
    worksheet.write(0, 13, '课程小图URL')
    worksheet.write(0, 14, '课程大图URL')
    worksheet.write(0, 15, '课程描述')
    totlePageCount = get_json(1)['result']['query']['totlePageCount']# 获取总页数
    # 循环遍历每一页:
    for index in range(totlePageCount): # 9
        main(index)
    workbook.close()  # 关闭Excel的写入
    print("结束")

生成的excel文件
xslx

如果这篇文章对你有帮助的话,点个赞呗~

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
网易云音乐会员歌曲是需要登录后才能听取的,因此我们需要先登录网易云音乐,并获取登录后的 Cookies。然后,我们可以使用这个 Cookies 来模拟登录状态,访问会员歌曲页面并获取歌曲信息。 以下是一个简单的示例代码: ```python import requests from bs4 import BeautifulSoup # 登录网易云音乐,获取 Cookies session = requests.Session() login_url = 'https://music.163.com/weapi/login/cellphone' payload = { 'phone': '你的手机号', 'password': '你的密码', 'rememberLogin': 'true' } response = session.post(login_url, data=payload) # 伪装成浏览器进行访问 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3', 'Referer': 'https://music.163.com/', 'Cookie': '; '.join([f'{key}={value}' for key, value in session.cookies.get_dict().items()]) } # 获取会员歌曲页面的 HTML 代码 url = 'https://music.163.com/#/my/m/music/privilege' response = requests.get(url, headers=headers) html = response.text # 解析 HTML 代码 soup = BeautifulSoup(html, 'html.parser') # 获取包含歌曲信息的 div 标签 song_list = soup.find('div', {'class': 'm-table-privilege'}).find_all('tr') # 遍历每个 tr 标签,获取歌曲信息 for song in song_list[1:]: # 第一行是表头,跳过不处理 # 歌曲名称 name = song.find('b', {'class': 'f-fs1'}).text # 歌手 artist = song.find('span', {'class': 's-fc7'}).text # 专辑 album = song.find('span', {'class': 's-fc7'}).find_next_sibling('span').text print(f'{name} - {artist} - {album}') ``` 以上代码中,我们使用了 requests 库进行登录,并通过 session 对象保存了 Cookies。然后,我们设置了请求头,使用 Cookie 来模拟登录状态。接着,我们访问了会员歌曲页面,并使用 BeautifulSoup 库解析了页面。最后,我们遍历每个 tr 标签,获取歌曲名称、歌手和专辑,并打印出来。 需要注意的是,网易云音乐的反爬虫机制比较严格,因此我们需要设置一些请求头来伪装成浏览器进行访问,并且不能频繁地进行请求。同时,由于网页是通过 JavaScript 渲染的,因此我们需要使用 Selenium 或者其他的工具来模拟浏览器行为。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值