Python-爬虫(生产者、消费者模型爬取王者荣耀壁纸)

1. 数据分析

源网址
首先壁纸数据不在网站源代码中,其中数据被保存到json中。

图片链接因为带汉字,需要通过urllib库中parse.unquote方法进行解析后在进行获取。
在这里插入图片描述
其中页数是通过page传递。可以删除jsoncallback字段,保证通过request.get方法获取到的响应可以直接通过json方法转化为字典。

2. 爬取代码

get请求需要传递参数处理函数

import re


def handle_load(msg):
    head_dict = {}
    # 文本按照行分割
    for data in msg.splitlines():
        # 过滤空数据
        if not data:
            continue
        # 去掉字符串左边的空格
        data = data.lstrip()

        html = re.findall('([a-zA-Z-]*?)\s*:\s*(.*?$)', data)

        for key, value in html:
            head_dict[key] = value

    return head_dict

爬取主函数:

import urllib.request
from urllib import parse
from queue import Queue
import requests
import threading
from Handle import handle_load
import os

url = "https://apps.game.qq.com/cgi-bin/ams/module/ishow/V1.0/query/workList_inc.cgi"

queue = Queue(100)

headers = {
    'user-agent':
        'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/'
        '105.0.0.0 Safari/537.36'
}


# 生产者
def get_json(time):
    datas = f'''
activityId: 2735
sVerifyCode: ABCD
sDataType: JSON
iListNum: 20
totalpage: 0
page: {time}
iOrder: 0
iSortNumClose: 1
iAMSActivityId: 51991
_everyRead: true
iTypeId: 2
iFlowId: 267733
iActId: 2735
iModuleId: 2735
_: 1663639429423
    '''
    response = requests.get(url, headers=headers, params=handle_load(datas))
    for item in response.json()['List']:
        name = parse.unquote(item['sProdName'])
        # 获取图片链接
        for img in range(2, 9):
            url_img = parse.unquote(item[f'sProdImgNo_{img}']).replace('jpg/200', 'jpg/0')
            queue.put([name, url_img])


# 消费者
def save_img():
    while True:
        print(f'任务队列大小为:{queue.qsize()}')
        data = []
        try:
            data = queue.get(timeout=3)
        except Exception:
            # 3秒队列还为空,说明爬取完毕
            break
        path = os.path.join('E:\\PythonCode\\TestImg', data[0])
        # 避免重名
        try:
            os.makedirs(path)
        except Exception:
            pass
        path = os.path.join(path, data[1].split('/')[-2])
        urllib.request.urlretrieve(data[1], path)
        print(f"{data[1].split('/')[-2]}保存成功")


# 爬3页图片
for page in range(3):
    thread = threading.Thread(target=get_json, args=(page,))
    thread.start()

for times in range(12):
    thread = threading.Thread(target=save_img)
    thread.start()

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

NUC_Dodamce

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值