爬虫
文章平均质量分 53
Bin_少年
这个作者很懒,什么都没留下…
展开
-
python爬取超高清壁纸
目标url:https://bz.zzzmh.cn/ 1.找非高清url 把前端保存成txt文件,里面包含非高清图的url 我保存的txt文件为:https://github.com/dengxmenglihua/files/archive/main.zip 2.找高清图对应的url特点 高清图url:https://w.wallhaven.cc/full/4g/wallhaven-4g3vm3.jpg 非高清图url:https://th.wallhaven.cc/small/4g/4g3vm3.原创 2021-03-03 17:39:37 · 983 阅读 · 2 评论 -
python3爬虫之多线程爬取英雄联盟所有皮肤图片
import requests import json import os import threading import re import time h=[] #定义数列 # from lxml import etree s = time.time() #获取程序启动时的时间 #print(s) def pa(i,se): se.acquire() #信号量减一 id = i['heroId'] #获取heroId的值 name = i['title'] #获取title的原创 2020-10-27 16:01:15 · 983 阅读 · 2 评论 -
python3爬虫之多线程爬取王者荣耀所有皮肤图片
多线程爬取王者荣耀图片 代码实现,一分钟就能爬完 import requests import os import json import threading from lxml import etree def pa(j): num = j['ename'] name = j['cname'] res2 = requests.get("https://pvp.qq.com/web201605/herodetail/{}.shtml".format(num)) res2_de原创 2020-10-26 14:52:32 · 459 阅读 · 2 评论 -
爬虫之多线程爬取王者荣耀所有皮肤图片
爬虫之多线程爬取王者荣耀所有皮肤图片 爬取完成时间大约18秒 import requests import os import json import threading from lxml import etree import time h=[] s=time.time() def pa(j): num = j['ename'] #从data中获取ename的值 name = j['cname'] res2 = requests.get("https://pvp.qq.com/原创 2020-10-27 17:30:07 · 452 阅读 · 0 评论