《精通Python爬虫框架Scrapy》第11章 使用Scrapyd与实时分析进行分布式爬取

本文介绍了如何使用Scrapyd进行分布式爬虫部署,并结合Apache Spark进行实时数据分析。通过Scrapyd管理多台服务器上的Scrapy爬虫,实现房产数据的高效抓取。同时,利用Spark Streaming进行数据流计算,分析房产标题对价格的影响,提供实时监控和性能评估。文章详细讲解了Scrapyd的部署、爬虫和中间件的修改,以及数据处理的完整流程。
摘要由CSDN通过智能技术生成

我们已经走了很长的一段路。我们首先熟悉了两种基础的网络技术——HTML和XPath,然后开始使用Scrapy爬取复杂网站。接下来,我们深入了解了Scrapy通过其设置为我们提供的诸多功能,然后在探讨其Twisted引擎的内部架构和异步功能时,更加深入地了解了Scrapy和Python。在上一章中,我们研究了Scrapy的性能,并学习了如何解决复杂和经常违背直觉的性能问题。

在最后的这一章中,我将为你指出如何进一步将该技术扩展到多台服务器的一些方向。我们很快就会发现爬取工作经常是一种“高度并发”的问题,因此可以轻松地实现横向扩展,利用多台服务器的资源。为了实现该目标,我们可以像平时那样使用一个Scrapy中间件,不过也可以使用Scrapyd,这是一个专门用于管理运行在远程服务器上的Scrapy爬虫的应用。这将允许我们在自己的服务器上,拥有与第6章中介绍的相兼容的功能。

最后,我们将使用基于Apache Spark的简单系统,对抽取的数据执行实时分析。Apache Spark是一个非常流行的大数据处理框架。我们将使用Spark Streaming API展示在数据收集增多时越来越准确的结果。对于我来说,最终的这个应用展示了Python作为一种语言的能力和成熟度,因为我们只需这些,就能编写出富有表现力、简洁并且高效的代码,实现从数据抽取到分析的全栈工作。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

人民邮电出版社有限公司

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值