Python爬虫入门——百度百科词条数据

本文介绍了Python爬虫的基础知识,包括爬虫的价值、URL管理器的实现方式、网页下载器的实现方法、网页解析器的常用工具,并以百度百科为例,展示了如何抓取词条页面的数据。提供了完整的代码仓库链接。
摘要由CSDN通过智能技术生成

1.爬虫的简介和价值

  • 爬虫: 一段自动抓取互联网信息的程序
  • 价值:互联网数据,为我所用
  • 可以应用到:新闻聚合阅读器、最爆笑的故事APP、最漂亮美女图片网、图书价格对比网、Python技术文章大全等等。

2.URL管理器

URL管理器:管理待抓取URL集合和已抓取URL集合

实现方式

  1. 内存
    • Python内存
    • 待爬取URL集合:set()
    • 已爬取URL集合:set()
  2. 关系数据库
    • MySQL
    • urls(url, is_crawled)
  3. 缓存数据库
    • redis
    • 待爬取URL集合:set
    • 已爬取URL集合:set

3.网页下载器

网页下载器:将互联网上URL对应的网页下载到本地的工具

实现方法:Python中 urllib2 模块(python2)或 urllib.request模块(python3)

4.网页解析器

网页解析器:从网页中提取有价值数据的工具

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值