python 使用多进程爬取网页url放入redis列表中

10 篇文章 0 订阅
10 篇文章 0 订阅

使用多进程爬取网页url放入redis列表中

用到的知识点:
1.生产者消费者模型
2.分布式爬虫
3.python自定义进程类(父进程管理子进程干活)
4.redis

import redis
from multiprocessing import Process
import time
import random

#自定义进程类
class XiaomiSpider(Process):
	#用初始化函数创建redis对象
	def __init__(self):
		self.r = redis.Redis(host='数据库服务器IP',
				     port=6379,			#6379为redis默认端口
				     db='redis数据库号',
				     password='xxx'
				     )

	#创建生产者子进程事件函数
	def product(self):
		#使用 format() 拼出网页格式化字符串
		url  = 'http://app.mi.com/category/2#page={}'
		for i in range(67):
			page_link = url.format(i)
			#将url lpush 入redis列表中
			self.r.lpush('xiaomispider:urls',page_link)
			time.sleep(random.randint(1,3))

	#创建消费者子进程事件函数
	def consumer(self):
		while True:
			#将存入列表中的url brpop 出来,阻塞等待列表中有数据时间设置为 4 seconds,没有时返回None
			result = self.r.brpop('xiaomispider:urls',4)
			if result:
				print('正在抓取:',result[1].decode())
			else:
				print('抓取结束')
				break
				
	#入口函数(重写父类提供的run()接口,专门用于让子进程干活)
	def run(self):
		#创建子进程对象
		p1 = Process(target=self.product)
		p2 = Process(target=self.consumer)
		
		#正式生成子进程并让他们干活
		p1.start()
		p2.start()
		
		#阻塞等待回收子进程
		p1.join()
		p2.join()
		

if __name__ == '__main__':
	spider = XiaomiSpider()
	spider.run()
  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值