python代码壁纸-爬虫 抓取王者荣耀所有英雄皮肤高清壁纸+超强注释

[python]代码库import urllib.request

import re

# 获取主页源码

url = 'https://pvp.qq.com/web201605/herolist.shtml'

a = urllib.request.urlopen(url) # 访问网页

a = a.read() # 读取源码

a = a.decode('gbk') # 转码为gbk

# 获取英雄名称和ID

a = (re.compile('输入英雄不存在,请重新输入' + "(.*?)" + '英雄介绍', re.S).findall(a))[0] # 取主要源码

id = re.compile('

name = re.compile('height="91" alt="' + '(.*?)' + '">').findall(a) # 取名字

print('本次共抓取到' + str(len(id)) + '个英雄数据')

# 询问保存路径

r = True

while r:

f = input('请输入想要保存的路径:')

if f == '':

print('不能为空')

if f != '':

r = False

# i

i = 0

for i in range(0, len(id) + 1): # 对列表位置进行循环

print('正在下载' + name[i])

url1 = 'https://pvp.qq.com/web201605/herodetail/' + id[i] + '.shtml' # 英雄主页网址

url1 = ((urllib.request.urlopen(url1)).read()).decode('gbk') # 获取源码,并且转码为gbk

pf = re.compile('data-imgname="' + '(.*?)' + '">', re.S).findall(url1) # 取出皮肤名字

pf = pf[0]

"""删除沉余字符"""

pf = pf.replace('&', '', )

pf = pf.replace('0', '', )

pf = pf.replace('1', '', )

pf = pf.replace('2', '', )

pf = pf.replace('3', '', )

pf = pf.replace('4', '', )

pf = pf.replace('5', '', )

pf = pf.replace('6', '', )

pf = pf.replace('7', '', )

pf = pf.replace('8', '', )

pf = pf.replace('9', '', )

pf = pf.split('|')#文本分割

print(pf)

for i1 in range(0, len(pf)): # 对皮肤列表进行循环

print(name[i] + '-' + pf[i1])

url2 = 'https://game.gtimg.cn/images/yxzj/img201606/skin/hero-info/' + id[i] + '/' + id[i] + '-bigskin-' + str(

i1 + 1) + '.jpg' # 皮肤下载地址

urllib.request.urlretrieve(url2, f + '/' + name[i] + '-' + pf[i1] + '.jpg') # 下载

201903221632.jpg

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python爬虫可以用于抓取王者荣耀皮肤信息,通常通过网络请求库如requests和BeautifulSoup、Scrapy等工具,配合HTML解析技术来实现。以下是基本步骤: 1. **确定目标网站**:首先需要访问王者荣耀皮肤展示页面的URL,比如腾讯官网或其他第三方游戏资讯网站。 2. **发送HTTP请求**:使用requests库发送GET请求获取网页源代码。 3. **解析HTML**:利用BeautifulSoup库分析响应内容,找到包含皮肤名称、图片链接等数据的部分。 4. **提取信息**:提取出皮肤名称、价格、图片地址等所需的数据。 5. **保存数据**:将数据存储到本地文件(如CSV或JSON),或者直接插入数据库,便于后续处理和查询。 6. **处理反爬机制**:注意检查并遵守网站的robots.txt规则,以及可能存在的验证码、动态加载等内容。 **示例代码片段**(简化版,实际操作需考虑异常处理和更复杂的解析): ```python import requests from bs4 import BeautifulSoup url = "https://example.com/kingofglory/skins" # 替换为你想要爬取的网址 response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') # 查找皮肤元素并提取数据 skins_data = [] for skin_element in soup.find_all('div', class_='skin-item'): # 类名假设为'skin-item' name = skin_element.find('h3').text image_url = skin_element.find('img')['src'] skins_data.append({ 'name': name, 'image_url': image_url, # ... 其他可能的数据 }) # 保存数据 with open('skins.csv', 'w', newline='', encoding='utf-8') as f: writer = csv.DictWriter(f, fieldnames=skins_data.keys()) writer.writeheader() writer.writerows(skins_data)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值