如何使用python爬虫

import requests
import os

# 请求头,伪装请求
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/111.0.0.0 Safari/537.36'}
# 获取英雄列表返回
hearo_list_url = "https://pvp.qq.com/web201605/js/herolist.json"
# 发送请求
response_list = requests.get(hearo_list_url, headers=headers, verify=False)
for h in response_list.json():
    ename = h.get("ename")             # 获取英雄的ID
    cname = h.get("cname")             # 获取英雄的名字
    if not os.path.exists(cname):
        os.makedirs(cname)
        print(f"已创建文件夹{cname}")       # 以英雄名创建文件夹
    names = h.get("skin_name")            # 获取每个页面的所有英雄 名字
    total_name = []
    for every_name in names.split('|'):
        total_name.append(every_name)           # 生成一个列表
        # 直接访问下载图片的URL,URL中实现各字段拼接
        for i in range(1, len(total_name)):
            response = requests.get(f'https://game.gtimg.cn/images/yxzj/img201606/skin/hero-info/{ename}/{ename}-bigskin-{i}.jpg',
                                    headers=headers, verify=False)
            with open(f"{cname}/{every_name}.jpg", "wb") as f:            # 写入到已存在的文件夹中
                f.write(response.content)
            print(f"已下载图片{every_name}")

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值