[Python]百科爬虫

本文介绍了如何使用Python开发轻量级网络爬虫,主要用于抓取无需登录和异步加载的静态网页数据,特别是在百度百科上的词条信息。爬虫架构包括URL管理器、网页下载器(urllib2)和网页解析器(BeautifulSoup),可以爬取N个页面的数据。
摘要由CSDN通过智能技术生成

爬虫是一段自动抓取互联网信息的程序。一般情况下采取人工方式从互联网上获取少量的信息,爬虫可以从一个URL出发,访问它所关联的URL,并且从每个页面中获取有价值数据。


这是轻量级(无需登录和异步加载的静态网页的抓取)网络爬虫的开发,采用python语言编写,主要包括URL管理器、网页下载器(urllib2)、网页解析器(BeautifulSoup),实现百度百科网络爬虫词条相关的N(自行设置)个页面数据,简单爬虫的架构如下:


简单爬虫架构流程如下:


程序按照架构分为以下五个主要的py文件:


主调度文件为spider_main.py

#coding:utf8
import html_outputer
import html_parser
import url_manager
import html_downloader


class SpiderMain(object):

   
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值