each 数据获取attr_pyspider爬取王者荣耀数据(上)

本文是关于如何使用pyspider爬取王者荣耀数据的入门教程,包括pyspider介绍、爬取目标确定、安装及启动服务、创建任务和自动生成代码的解析。目标数据包括英雄简介、技能、技能加点、出装建议和英雄属性。通过实时调试和选择CSS选择器,提取所需数据。
摘要由CSDN通过智能技术生成

pyspider爬取王者荣耀数据(上)

前言

不知道还有多少人记得几个月前写的两篇文章,介绍关于 PyQuery 入门使用的教程。忘记的朋友,可以去回顾下用法:

爬虫神器之 PyQuery 实用教程(一) 爬虫神器之PyQuery实用教程(二),50行代码爬取穷游网

在之前的某一期文章下面,我记得有过一次留言,说是要安排一下王者荣耀的数据爬取,并且是使用 PySpider 爬虫框架。

那么,今天就带来一篇关于 pyspider 的入门教程。

题外话:

对于王者荣耀这种电竞类游戏来说,为什么有些人能轻松上王者?而有些人却一直停留在低段位?无非就是没有了解过规则,以及其背后的数据罢了。

一款游戏,对于数据和规则熟知于心,那么,上分是轻轻松松的事儿。

作为一个电竞游戏从初中开始玩的人来说,从 dota1 到 lol,再到后来的 dota2,最后到移动端的王者荣耀,每次都是将数据与规则了解后,才得心应手的去上分。

放上我的王者荣耀段位图,秀一波:

7b81fe617141de6a5cec720dbd95973c.png
4086be84048e00aef2b47858b5521e4f.png

当然,如果有时间的话,欢迎大家来找我一起玩~可以一起排位。下面进入正题。

今天这篇,爬取的网站数据包括技能,英雄属性数值,推荐装备等。

因为英雄详情属性数据没有找到官方提供的,所以特意找到了一个第三方游戏网站,本次仅是爬取数据,后面打算用本次的数据做个分析。

准备工作

先来介绍下什么是 pyspider?为什么要用 pyspider ?

  1. 什么是 pyspider
88bc6512c2f619e3e5dfc515e14a8b8e.png
  1. 为什么要用 pyspider

pyspider是一款优秀的框架,并配有 WebUI 的界面。

平时我们写爬虫时,只能是自己从零开始不断地搭建代码,但是有没有发现,当你写了很多爬虫的时候,有些逻辑无非就是在修改获取节点元素的规则,其它代码是不用做修改的。

这样一来,每次都要重复的去写一些相同的代码,不仅枯燥,且浪费时间。在这样的场景下,框架才会诞生出来。

只需要你对变化的东西进行“填充”即可,其余相同的地方,框架帮你做。

对于框架来说,学习成本也各不相同,比如知名的爬虫框架 scrapy ,相对于新手来说,可能难度就大一些。

而 pyspider 自带了一个页面,可以实时调试,对于初学者来说,上手容易,脚本编写规则也非常简单。

介绍就到此结束了。

确定爬取目标

先来看下王者荣耀第三方网站首页:

http://db.18183.com/wzry/

18183王者荣耀

b647f087635c0848c2ad86d41e639239.png
038ff36bf76f6e679bfda368818e450b.png
9acad096cb232832e13b6b47fbabfc02.png

红框即爬取目标,整理一下,具体有:

  • 每个英雄简介
  • 技能介绍描述
  • 推荐技能加点
  • 英雄出装建议
  • 英雄属性数值

pyspider入门

  1. 安装 pyspider 库

开始介绍入门之前,先来安装下它。

pip install pyspider

安装完成后,以命令行的形式去执行 pyspider ,让它启动服务。

ad185d32f14f15ec8bbcc62fd51aae3f.png
  1. 启动服务

启动后,打开浏览器,输入 http://localhost:5000 ,可以看到下图:

b1eac473c7a603309b10e010d33a2036.png

看到此页面,说明 pyspider 初始化启动完成。

  1. 创建任务

点击 create 按钮,创建新工程任务。name 随意写,start url 写我们要爬取的首页即可。

300cb332facc6b91f4560ab395c323cc.png
  1. 自动生成代码
b363712cc36c821b2651e2722df08892.png
8cbaf707f817352cc2c77a6044c6ceb1.png

细看一下自动生成的代码。

Handler类里有 3 个方法,分别是 on_start,index_page,detail_page 方法,每个方法上面有着自己的装饰器。

on_start():启动后进入的第一个方法,主 url 在此处被请求,响应会传入 callback 后面的 index_page 函数中。

index_page():主 url 返回的响应源码进入到此函数到 response 里,其中 reponse.doc 用到了 PyQuery 语法,用来匹配你想要的信息节点,继续传入到下一个详情页中。

detail_page():处理最后的具体逻辑,当然你也可以继续类似上面的回调,主要看你要抓取的信息到底在多少层的页面中。


分析下王者荣耀的官网,我们需要的信息:

deeac1649db2c206f3dce1f092c2a0b2.png

以下,首页到鲁班大师详情页为例:

74815f0eba295a035636cf21027265c5.png

点击 run 后,看到 followers 下有个红色数字1,说明请求到了,点过去看下。

4fac515bd091d8c13cbbb80396fbd8e0.png
3be8f3fd083259c3838b9dcdf78df099.png

点击运行后的瞬间,可以看到 pyspider 自动为我们识别出了首页的 126 条超链接,但是我想要的仅仅是英雄列表中的每个英雄的 url 地址。

所以,接下来就要发挥 pyspider 的便捷之处了。

点击到 web ,即可实时看到首页:

4b985c6777efb32b81512a16bb0d2c00.png

点击 css selector helper ,即 css 选择器帮助。

197d63cf555386513d00da56e5e05a67.png

如果之前用过 webscrape 插件的同学(爬虫工具(二) webscraper 教程(知乎案例)) ,一定很熟悉这个场景,手动选择你想要的节点,然后系统自动生成。

点击 css 样式的右箭头, 网页自动将 css 代码帮你替换到你光标放置的右侧代码位置:

3f58982d58e0f809b831fa869a0b4373.png

顺便,打印下 each ,看下结果。

打印发现,这并不是我们想要的 li 节点,所以继续进一步提取。

可以看到此行 div 里包含的 li 标签,而 li 标签中又包含了 a 标签。

于是,提取如下:

def index_page(self, response):    print(response)    for each in response.doc('.hero-result-box>ul>li').items():        print(each('a').attr('href'))        a = each('a')        self.crawl(a.attr.href, callback=self.detail_page)
27a1f731aea500598e06d16465e5c3c6.png

其实,熟悉 PyQuery 语法的朋友,一定很容易就写出来了,这里给新手朋友放个思维导图吧,也许你看了图就明白了,不过多文字解释了:

bc6134be20a325b92b45ea0d8d5bebd4.png

像不像一个沙漏!让我想起了营销学提到的漏斗模型,感兴趣的同学可以自行查下资料了解。

当然,以上过程,如果你不习惯用 pyspider 给你提供的,也可以用 Chrome 等浏览器自带的开发者工具自行调试。

关于详情页,这里只以抓取头像,姓名,定位来举例:

这里使用 css helper 去直接点我们想要的节点,然后移动 css 代码到右侧代码,很容易写出爬取节点:

def detail_page(self, response):    name = response.doc('h1').text()    img = response.doc('.name > img').attr('src')    position = response.doc('.name-box > p').text()    return {        "url": response.url,        "name": name,        "img": img,        "position": position        }

结果:

13a725b85e004bcb25c759d0a520f40a.png

直到这里一切都顺利,但是让我疑惑的是头像的图片为什么是 gif 地址?访问下,一看这图片一直在转圈啊!

41879c2d165fd41bb33fe3f5fa832257.png

对于图片源地址来说,我们还是用自带的浏览器来调试,方便观察。

07619adf688ca69dcc7c3149899c2799.png

经过用开发者工具的这么一看,源地址应该是这个才对,怎么一直加载不出来?再仔细观察爬取到的地址:

http://js.18183.com/uploads/pc/yxzjol/sjk/loading.gif

和 js 肯定有关系,果不其然,这里遇到了图片的优化机制,图片懒加载。此机制也可以当做反爬虫机制的一种,隐藏了真实的图片地址。

图片懒加载是一种网页优化技术。图片作为一种网络资源,在被请求时也与普通静态资源一样,将占用网络资源,而一次性将整个页面的所有图片加载完,将大大增加页面的首屏加载时间。 网络

那么,如何找到图片的真实地址?这就得去看 js 如何写的了!

拉到详情页最下方,看到有个懒加载的 js 。无疑就是它了!

a2dc92340700957b152954dce54a391d.png

点过去看下,可以看到有段这样的代码:

b731d45749fe89797394136e70444b39.png

结合上下文看这段 js 代码,最终能猜出, img 的真实地址属性标签应为:"data-original"。

那么,来试一下:

1fc42f6c1b3a3d38fb2e468da97aa3d7.png
b66e5057af8b6f51ad85e5e22073e4ef.png

可以看到成功了。

结语

以上,便是 pyspider 爬取的入门教程了,当然,这只是抓取的步骤,数据离不开落地,下一篇,讲下如何数据落地,并且提供源码和这次抓取到的数据。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值