构造 分布式爬虫 四步

简单爬虫修改成分布式爬虫步获取动态允许的域
1.接收参数
2.将参数中domain字符串弹出 如果没有弹出空 即‘ ’
3.将domain变量的字符串切割,用filter过滤,如果有none,0,' '等空的东西直接过滤 得到结果为真是的表内的值, 自己的写的时候list转换一下,这里得到的是一个列表
4.用super方法调用父类的方法
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
分布式爬虫负载均衡算法的实现可以参考以下的Python代码: ```python import requests import redis import random from urllib.parse import urlparse # Redis数据库连接 redis_conn = redis.StrictRedis(host='localhost', port=6379, db=0) # 请求头信息 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.111 Safari/537.36' } # 定义爬虫池 spider_pool = ['http://spider1.com', 'http://spider2.com', 'http://spider3.com'] # 定义URL队列 url_queue = [ 'http://www.baidu.com', 'http://www.sina.com', 'http://www.qq.com', 'http://www.taobao.com', 'http://www.jd.com' ] # 负载均衡算法 def load_balance(): # 获取所有爬虫的负载情况 spider_load = {} for spider in spider_pool: spider_load[spider] = int(redis_conn.get(spider) or 0) # 使用随机算法选取负载最小的爬虫 spider = random.choice(sorted(spider_load.items(), key=lambda x: x[1])[0:1])[0] # 增加选中爬虫的负载 redis_conn.incr(spider) return spider # 爬虫程序 def spider(url): # 获取选中的爬虫 spider = load_balance() # 解析URL url_parts = urlparse(url) # 构造请求URL request_url = spider + url_parts.path if url_parts.query: request_url += '?' + url_parts.query # 发送请求 response = requests.get(request_url, headers=headers) # 输出响应内容 print(response.content) # 减少选中爬虫的负载 redis_conn.decr(spider) if __name__ == '__main__': for url in url_queue: spider(url) ``` 这段代码实现了一个简单的分布式爬虫程序,其中包括了负载均衡算法。在这个程序中,我们维护了一个爬虫池和一个URL队列,每次从URL队列中选取一个URL进行爬取,并使用负载均衡算法选取一个空闲的爬虫进行请求。在请求完成后,我们需要减少选中爬虫的负载。我们使用Redis数据库来维护爬虫的负载情况,每个爬虫对应一个计数器,记录当前正在处理的请求数量。在负载均衡算法中,我们使用随机算法选取负载最小的爬虫

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值