网络爬虫架构分析

       对于一个搜素引擎而言,首先的问题就是网络爬虫,因为只有设计出高效的下载系统,以将如此海量的网页数据传送到本地,在本地形成互联网网页的镜像备份。今天就分析一下这个架构。同样,看下边的图来分析。

       

       处理过程如下:

       (1)首先从互联网页面中精心选择一部分网页,以这些网页的链接地址作为种子URL,将这些种子URL放入待抓取URL队列中。

       (2)爬虫从待取URL队列中依次读取待抓取URL。

       (3)将URL通过DNS解析,把链接地址转换为网站服务器对应的IP地址。

       (4)将其和网页相对路径名称交给网页下载器。

       (5)网页下载器负责页面内容的下载。

       (6)下载下来的网页分为两步操作,一方面将其存储到页面库中,等待建立索引等待后续处理。另外一方面将下载网页的URL放入已抓取URL对列中。

       (7/8)通过查看已抓取URL队列就可以判断该URL是否已抓取过,如果没有抓取,就将其放入待抓取URL队列中。

       如此就在2~8之间一直循环,直到URL队列为空。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值