python爬虫 | 一文搞懂分布式进程爬虫

1.预备知识

今天咱们来扯一扯分布式进程爬虫,对爬虫有所了解的都知道分布式爬虫这个东东,今天我们来搞懂一下分布式这个概念,从字面上看就是分开来布置,确实如此它是可以分开来运作的。

分布式进程就是将进程分布到多台机器上去,充分利用每一台机器来完成我们的爬虫任务。分布式进程需要用到multiprocessing模板,multiprocessing模板不但支持多进程,它的managers子模块还支持把多进程分布到多台机器上。

我们可以写一个服务进程作为调度者,然后将我们的爬虫任务分布给其他的多个进程当中去,我们依靠网络通信来管理这些进程。

2.模拟一个分布式进程爬虫

我们来模拟进行一个分布式进程的爬虫吧,就比如我们需要抓取某个图片网站的所有图片,如果用我们的分布式进程的思想,我们会创建一个进程负责抓取图片的链接地址,然后将这些链接地址存放到Queue中,另外的进程负责从Queue中读取链接进行图片的下载或者进行其他操作(存在本地).

其实我们的Queue是暴露在网络中的,通过分布式就是将其进行了封装,其实也就是所谓的本地队列的网络化。

接下来,我们来分析一下如何去创建一个分布式的服务进程,总体可以分为六步:

  1. 首先我们需要建立一个队列queue,这个主要用作进程之间的通信。总体来说就是两种进程,一种是服务进程,一种是任务进程。服务进程创建任务队列task_queue,用作传递任务给任务进程的通道。服务进程又创建result_queue,作为任务进程完成任务后回复服务进程的通道。在分布式进程的环境下,我们需要通过Queuemanager 获得的Queue接口来添加任务。

  2. 把我们在第一步中队列在网络上进行注册,暴露给其他的进程或者主机,注册后获得网络队列,相当于本地队列的映像。

  3. 建立Queuemanager的对象,并且实例化,绑定端口和口令

  4. 启动第三步中建立的实例,即启动管理manager,监管信息通道

  5. 通过管理实例的方法获取到通过网络访问的queue对象,也就是把网络对象实体化成本地的一个队列。

  6. 创建任务到“本地”队列中,自动上传任务到网络队列中,分配给任务进程进行处理。

我们就来写一下服务进程的代码   taskManager.py:

 

import queue

from multiprocessing.managers import BaseManager

from multiprocessing import freeze_support

 

# 任务个数

task_num = 500

 

# 定义收发队列

task_queue = queue.Queue(task_num)

result_queue = queue.Queue(task_num)

 

 

def get_task():

return task_queue

 

 

def get_result():

return result_queue

 

 

# 创建类似的QueueManager

class QueueManager(BaseManager):

pass

def run():

# Windows下绑定调用接口不能使用lambda,所以只能先定义函数再绑定

QueueManager.register('get_task_queue', callable = get_task)

QueueManager.register('get_result_queue', callable=get_result)

#绑定端口并设置验证口令,windows下需要填写ip地址,Linux中不填默认为本地

manager = QueueManager(address=('127.0.0.1', 8001), authkey='jap'.encode('utf-8'))

# 启动

manager.start()

 

try:

# 通过网络获取任务队列和结果队列

task = manager.get_task_queue()

result = manager.get_result_queue()

# 添加任务

for url in ["JAP君url:"+str(i) for i in range(500)]:

print("添加任务 %s" %url)

task.put(url)

print("正在获取结果...")

for i in range(500):

print("result is %s" %result.get(timeout=10))

except:

print('Manager error')

finally:

# 一定要关闭,否则会报管道未关闭的错

manager.shutdown()

 

 

if __name__ == '__main__':

# windows下多进程可能会出现问题,添加这句话可以解决

freeze_support()

run()

上面就是我们的服务进程,我把解析都写在了里面,大家可以仔细看一下,接下来我们来写任务进程(taskWorker),创建任务进程也比较简单,只有简单的四步:

1. 创建一个类似的QueueManager对象,使用QueueManager注册用于获取queue的方法名称,任务进程只能通过名称来在网络上获取queue,所以这里一定要注意服务端和任务端的名称要相同。

2. 链接服务器,端口和指令一定要与服务端相同

3. 从网络上获取queue,并且将其本地化。

4. 从task对列中获取任务,并且把结果写入result对列。

 

import time

from multiprocessing.managers import BaseManager

 

# 创建类似的QueueManager

class QueueManager(BaseManager):

pass

 

# 第一步:使用QueueManager注册用于获取Queue的方法名称

QueueManager.register('get_task_queue')

QueueManager.register('get_result_queue')

 

# 第二步:链接到服务器

server_addr = '127.0.0.1'

print('Connect to server %s' %server_addr)

# 端口和验证的口令一定要保证相同

m = QueueManager(address = (server_addr, 8001), authkey='jap'.encode('utf-8'))

# 从网络连接:

m.connect()

 

# 第三步:获取queue的对象

task = m.get_task_queue()

result = m.get_result_queue()

 

# 第四部:从task队列中获取任务,并把结果写入result队列

while(not task.empty()):

url = task.get(True, timeout = 5)

print("run task download %s" %url)

time.sleep(1)

# 将结果写入result队列

result.put("%s --->success" %url)

print("exit")

详细的步骤也写在里面了,当然这个任务队列,我们是可以创建多个的,每个任务进程都会完成自己的事,而不会干扰其他的任务进程,这也就让我们的url不会重复的去爬取,从而完美的实现了多个进程来爬取我们的任务。

以上就是一个非常简单的分布式进程的爬虫小案例,大家可以通过这种方式去实战自己的一个小项目,在这里还说一下,我们是可以将我们的任务分布到多台机器上的,这样我们就实现了大规模的爬取。

小编在此分享Python十多位名师零基础视频教程,循序学习,短时间即可从小白到大神,从菜鸟到高手,掌握未来最强就业技能,挑战名企高薪!内容见下图:如果你对Python编程感兴趣,那么记得来小编的Python学习扣群:881982657,这里有资源共享,技术解答,大家可以在一起交流Python编程经验,还有小编整理的一份Python学习教程,希望能帮助大家更好的学习python。

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
【为什么学爬虫?】        1、爬虫入手容易,但是深入较难,如何写出高效率的爬虫,如何写出灵活性高可扩展的爬虫都是一项技术活。另外在爬虫过程中,经常容易遇到被反爬虫,比如字体反爬、IP识别、验证码等,如何层层攻克难点拿到想要的数据,这门课程,你都能学到!        2、如果是作为一个其他行业的开发者,比如app开发,web开发,学习爬虫能让你加强对技术的认知,能够开发出更加安全的软件和网站 【课程设计】 一个完整的爬虫程序,无论大小,总体来说可以分成三个步骤,分别是:网络请求:模拟浏览器的行为从网上抓取数据。数据解析:将请求下来的数据进行过滤,提取我们想要的数据。数据存储:将提取到的数据存储到硬盘或者内存中。比如用mysql数据库或者redis等。那么本课程也是按照这几个步骤循序渐进的进行讲解,带领学生完整的掌握每个步骤的技术。另外,因为爬虫的多样性,在爬取的过程中可能会发生被反爬、效率低下等。因此我们又增加了两个章节用来提高爬虫程序的灵活性,分别是:爬虫进阶:包括IP代理,多线程爬虫,图形验证码识别、JS加密解密、动态网页爬虫、字体反爬识别等。Scrapy分布式爬虫Scrapy框架、Scrapy-redis组件、分布式爬虫等。通过爬虫进阶的知识点我们能应付大量的反爬网站,而Scrapy框架作为一个专业的爬虫框架,使用他可以快速提高我们编写爬虫程序的效率和速度。另外如果一台机器不能满足你的需求,我们可以用分布式爬虫让多台机器帮助你快速爬取数据。 从基础爬虫到商业化应用爬虫,本套课程满足您的所有需求!【课程服务】 专属付费社群+定期答疑

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值