有很多美女姐姐的图片做桌面,即使加班也是高兴的!
好啦!先唠叨一下爬虫的步骤:
- 获取请求链接,并判断响应结果的类型
- 使用requests发出请求,获取响应结果
- 解析响应结果
- 将响应的结果做持久化保存
按照步骤我们第一步是获取链接,我们以虎牙直播为例,进入首页
然后选择更多,但是如果你需要的在上面可以直接选择也可以,比如王者荣耀、英雄联盟等,我们选择【颜值】,进入颜值页面
来到颜值页面后我们F11打开开发者工具,选择Network进行网络请求和响应的查看。我们的目的是获取海量的美女图片
将页面拉到底部,进行翻页。发现地址栏没有变化还仍然是:https://www.huya.com/g/2168
如果大家遇到这种情况,就要考虑是不是使用ajax进行异步请求了。在Network中选择XHR,进行异步请求的筛选。
点开上图中圈起来的链接,发现在response处是一个json返回结果
于是我们把此链接拷贝出来,继续分析:
1.https://www.huya.com/cache.php?m=LiveList&do=getLiveListByPage&gameId=2168&tagAll=0&callback=getLiveListJsonpCallback&page=1
2.https://www.huya.com/cache.php?m=LiveList&do=getLiveListByPage&gameId=2168&tagAll=0&callback=getLiveListJsonpCallback&page=2
3.https://www.huya.com/cache.php?m=LiveList&do=getLiveListByPage&gameId=2168&tagAll=0&callback=getLiveListJsonpCallback&page=3
4.https://www.huya.com/cache.php?m=LiveList&do=getLiveListByPage&gameId=2168&tagAll=0&callback=getLiveListJsonpCallback&page=4
这时我们兴奋了,因为发现了规律,链接其他的没有发生变化,唯独在最后位置page发生了改变。分别跟页码数对应上了。
于是我们就有了下面的代码:
# 获取响应结果json并解析
def get_parse_json(url):
pass
if name == ‘main’:
# 自动创建huya文件夹
if not os.path.exists(‘huya’):
os.mkdir(‘huya’)
# 假设我们要爬取的是3页的主播封面图
for i in range(1,4):
url = ‘https://www.huya.com/cache.php?m=LiveList&do=getLiveListByPage&gameId=2168&tagAll=0&callback=getLiveListJsonpCallback&page=’+str(i)
get_parse_json(url)
现在我们就来到了步骤二,使用requests发出请求了。
# 导入requests
import requests # 爬虫
# 模拟浏览器来访问
headers = {
‘User-Agent’: ‘Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36’
}
def get_parse_json(url):
# 开始爬取虎牙的妹子
response = requests.get(url, headers=headers)
content = response.text # 大家注意此处没有使用json()直接获取,是因为json字符串前面有一长串字符串
# 使用切片截取字符串
result = content[len(‘getLiveListJsonpCallback(’): -1]
# 查看截取结果
print(result)
if name == ‘main’:
# 假设我们要爬取的是10页的主播封面图
for i in range(1,11):
url = ‘https://www.huya.com/cache.php?m=LiveList&do=getLiveListByPage&gameId=2168&tagAll=0&callback=getLiveListJsonpCallback&page=’+str(i)
get_parse_json(url)
获取结果截图:
我们发现成功获取了3条json结果,接下来就是分析和解析数据了。
因为json内容很长,我们不便分析它们,所以我们使用json的格式化工具完成:https://www.bejson.com/
点开格式化工具的链接,将json数据复制到上面,进行格式化查看会更加清晰。
通过分析我们发现所有的数据都在data–>datas中,而图片在screenshot对应的值上。
所以我们开始解析,先将json字符串使用json.loads()进行转换,得到的是一个字典,然后层层的获取数据。
解析的代码是:
import json
# json解析: json字符串 => python字典
result2 = json.loads(result)
# 当前页的所有妹子
meizi_list = result2[‘data’][‘datas’]
for meizi in meizi_list:
nick = meizi[‘nick’] # 昵称
img = meizi[‘screenshot’] # 图片url
我们虽然提取出来了图片的url,但是还没有保存到本地。所以接下来要做第四步持久化保存了。
因为我们下载的仅仅是图片,所以直接使用request.urlretrieve实现就可以
from urllib from request
request.urlretrieve(img, f’huya/{nick}.png’)
request.urlcleanup() # 清空缓存
print(f’{nick}.png 下载完成!')
因此最后的完整代码是:
# 导入requests
import time
import json
from urllib import request
import ssl
import requests # 爬虫
# 模拟浏览器来访问
headers = {
‘User-Agent’: ‘Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36’
}
# ssl._create_default_https_context = ssl._create_unverified_context
def get_parse_json(url):
# 开始爬取虎牙的妹子
response = requests.get(url, headers=headers)
content = response.text # 大家注意此处没有使用json()直接获取,是因为json字符串前面有一长串字符串
# 使用切片截取字符串
result = content[len(‘getLiveListJsonpCallback(’): -1]
# json解析: json字符串 => python字典
result2 = json.loads(result)
# 当前页的所有妹子
meizi_list = result2[‘data’][‘datas’]
for meizi in meizi_list:
nick = meizi[‘nick’] # 昵称
img = meizi[‘screenshot’] # 图片url
自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。
深知大多数Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!
因此收集整理了一份《2024年Python开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!
由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新
如果你觉得这些内容对你有帮助,可以扫码获取!!!(备注Python)
g-blog.csdnimg.cn/img_convert/6c361282296f86381401c05e862fe4e9.png)
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!
由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新
如果你觉得这些内容对你有帮助,可以扫码获取!!!(备注Python)
