Python 写网络爬虫思路分析

首先从程序入口开始分析,在程序入口处传入一个待爬取的网址,

使用下载器Html_downloader类下载该地址的内容,使用解释器
parser分析内容,利用BeautifulSoup包抓取想要爬取的内容和地址,
把地址增加到Url_Manager管理器中,同时把抓取的内容收集起
来。这里一次抓取完成,检测Url_Manager管理器中是否还有新
的未爬取的网址,如果有则开始下次爬取。直至爬取完毕后,把
收集到的信息以一定的格式存储到一个文件中,至此整个网页爬
虫过程结束。
就数据结构而言,网页爬虫采用了图结构的广度优先搜索遍
历的模式完成爬取工作。

转载于:https://www.cnblogs.com/vspiders/p/7399130.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值