教大家来使用Python——looter来制作速度又快效率又高的网络爬虫

最近的几年里,网上的爬虫教程日益增多,从urllib开始,到requests和selenium的这类高级库,实际上,我们有很多的可能都用不到,所以不用这么费心费力地去了解那么多你可能用不到的东西。学习爬虫也就是:发起请求——解析数据——存储数据,这样就可以把简单的爬虫给写出来了。所以我教你用——looter来写一个又高效又快速的爬虫。

安装

教大家来使用Python——looter来制作速度又快效率又高的网络爬虫

只支持Python3.6及以上版本。

快速开始

我们先来做一个简单的爬虫来爬取图片:首先,要用shell获取网站

教大家来使用Python——looter来制作速度又快效率又高的网络爬虫

然后再用俩行代码来把图片抓取保存到本地

教大家来使用Python——looter来制作速度又快效率又高的网络爬虫

也可以只用1行代码:d

教大家来使用Python——looter来制作速度又快效率又高的网络爬虫

工作流

如果你想要快速的制作一个爬虫,我教你一个方法,使用looter提供的模板来自动生成一个

教大家来使用Python——looter来制作速度又快效率又高的网络爬虫

在这一行代码里面,tmpl是模板,分别是data和image这两种模板。

async是用来备用的,因为它可以把生成爬虫的核心变成asyncio而不是线程池。

在生成的模板里面,你可以自己来定义domain和tasklist这两个变量。

什么是tasklist?它就是你要爬取页面里面的所有的链接。

http://konachan.com为例,你可以使用列表推导式来创建自己的tasklist:

教大家来使用Python——looter来制作速度又快效率又高的网络爬虫

然后你就要定制属于你自己的crawl函数,也就是爬虫的核心部分。

教大家来使用Python——looter来制作速度又快效率又高的网络爬虫

在很多情况里,你想要抓取的内容是一个列表(也就是HTML中的ul或ol标签),你可以使用css选择器来将它们保存为items变量。

而后,你只要使用for循环来迭代它们,抽取你自己想要或者需要的数据,再将它们存储到dict里面就可以了。

但是,在你写完这个爬虫之前,最好用looter提供的shell来调试一下你的cssselect代码是否正确。(目前已集成ptpython,一个支持自动补全的REPL)

教大家来使用Python——looter来制作速度又快效率又高的网络爬虫

在程序调试完成之后,你的爬虫自然也就完成了。怎么样,是不是很简单:)

函数

looter为用户提供了很多实用的函数。

view

在你想要运行程序之前,你最好确认一下页面的渲染是否是你自己想要的

教大家来使用Python——looter来制作速度又快效率又高的网络爬虫

在你爬取了一大堆图片链接时,用它可以直接把它们保存到本地

教大家来使用Python——looter来制作速度又快效率又高的网络爬虫

可以爬取网站的reach和popularity指数(人气度),此函数返回一个元组(url, reach_rank, popularity_rank)

教大家来使用Python——looter来制作速度又快效率又高的网络爬虫

爬取网页的所有链接

教大家来使用Python——looter来制作速度又快效率又高的网络爬虫

同样的,你也可以通过正则表达式来爬取匹配的链接

教大家来使用Python——looter来制作速度又快效率又高的网络爬虫

把得到的结果保存为json文件,支持按键值排序

教大家来使用Python——looter来制作速度又快效率又高的网络爬虫

如果想要保存为其他的格式(csv、xls等),用pandas转化就可以了

教大家来使用Python——looter来制作速度又快效率又高的网络爬虫

用来爬取网站robots.txt上的所有链接。这个在做全站爬虫或者递归式url爬虫时颇为有效

教大家来使用Python——looter来制作速度又快效率又高的网络爬虫

有一些网站必须要先登录才能爬取,于是就有了login函数,本质其实就是建立session会话向服务器发送带有data的POST请求。 考验各位抓包的能力,以下为模拟登录网易126邮箱(要求参数:postdata和param)

教大家来使用Python——looter来制作速度又快效率又高的网络爬虫

防反爬虫的技巧

教大家来使用Python——looter来制作速度又快效率又高的网络爬虫

api搭建

有的时候,仅仅只是爬取数据存到数据库里是不够的。如果你想要把数据开放出去,就需要搭建api。一旦建完成,你就可以以网页、app甚至是微信小程序的形式来向他人展现和使用你的数据了。

我们需要用一个eve的框架,这样我们就能迅速的搭建出我们的api

教大家来使用Python——looter来制作速度又快效率又高的网络爬虫

假设你已经利用爬虫爬取到了jav的数据,并且把它存进了MongoDB数据库里面,那么搭建api的时候就只需创建2个文件:一个是api的站点文件(本质上是一个flask的app实例),另一个是api的配置文件。

教大家来使用Python——looter来制作速度又快效率又高的网络爬虫

教大家来使用Python——looter来制作速度又快效率又高的网络爬虫

其中datasource引用了jav数据库里面的torrents集合,并且把数据进行根据日期降序排序。

运行jav_api.py,并访问这个链接,我们就可以看到我们搭建的api了。

如果想进行查询操作,用where再加上正则表达式就可以了(其实就是MongoDB的查询语法)

教大家来使用Python——looter来制作速度又快效率又高的网络爬虫

如果你想要搭建更加健全的RESTful api,我建议你去阅读eve的官方文档。

到了这里,我们的api便搭建完成了:)


Python学习交流群:834179111 群里有很多的学习资料。

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值