import requests
import os
# 请求头,伪装请求
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/111.0.0.0 Safari/537.36'}
# 获取英雄列表返回
hearo_list_url = "https://pvp.qq.com/web201605/js/herolist.json"
# 发送请求
response_list = requests.get(hearo_list_url, headers=headers, verify=False)
for h in response_list.json():
ename = h.get("ename") # 获取英雄的ID
cname = h.get("cname") # 获取英雄的名字
if not os.path.exists(cname):
os.makedirs(cname)
print(f"已创建文件夹{cname}") # 以英雄名创建文件夹
names = h.get("skin_name") # 获取每个页面的所有英雄 名字
total_name = []
for every_name in names.split('|'):
total_name.append(every_name) # 生成一个列表
# 直接访问下载图片的URL,URL中实现各字段拼接
for i in range(1, len(total_name)):
response = requests.get(f'https://game.gtimg.cn/images/yxzj/img201606/skin/hero-info/{ename}/{ename}-bigskin-{i}.jpg',
headers=headers, verify=False)
with open(f"{cname}/{every_name}.jpg", "wb") as f: # 写入到已存在的文件夹中
f.write(response.content)
print(f"已下载图片{every_name}")
如何使用python爬虫
于 2023-04-09 23:23:24 首次发布