2020-09-14:Python爬虫:Ajax数据爬取

借用:https://scrape.center/ 示例:https://spa1.scrape.center/
直接上代码:

import requests

baseurl = 'https://spa1.scrape.center/api/movie/?'

def getpage(url):
    params = {
      'limit' : '100',
      'offset' : '0'
    }
    # headers 通过浏览器F12查看内容
    headers = { 'authority': 'spa1.scrape.center',
    'method': 'GET',
    'path' : '/api/movie/?limit=10&offset=10',
    'scheme': 'https',
    'accept': 'application/json, text/plain, */*',
    'accept-encoding': 'gzip, deflate, br',
    'accept-language': 'zh-CN,zh;q=0.9',
    'referer': 'https://spa1.scrape.center/page/2',
    'sec-fetch-dest': 'empty',
    'sec-fetch-mode': 'cors',
    'sec-fetch-site': 'same-origin',
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.102 Safari/537.36'}

    # 自动对params进行编码,然后自动和url进行拼接,去发请求
    res = requests.get(url,params=params,headers=headers)
    res.encoding = 'utf-8'
    return res.json()

def parse_page(json):
    if json:
        items = json.get('results') #提取results后内容
        for item in items:
            
            weibo = {}
            weibo['id'] = item.get('id')
            weibo['名字'] = item.get('name')
            weibo['别名'] = item.get('alias')
            weibo['封面'] = item.get('cover')
            weibo['类别'] = item.get('categories')
            weibo['上映时间'] = item.get('published_at')
            weibo['时间'] = item.get('minute')
            weibo['评分'] = item.get('score')
            weibo['上映区域'] = item.get('regions')
            yield weibo

json = getpage(baseurl)
results = parse_page(json)
for result in results:
    print(result)

其中headers获取为:
在这里插入图片描述
运行后的效果:
在这里插入图片描述

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值