怎么用python扒网页?新手入门爬虫第一篇!

本文介绍了Python爬虫的基本流程,包括选取种子URL,DNS解析,URL下载与去重,以及HTTP请求的实现。讲解了urllib2/urllib模块的使用,如urlopen函数进行GET请求,设置请求头处理POST请求,以及Cookie的管理和自定义。适合Python爬虫初学者。
摘要由CSDN通过智能技术生成

 

python爬虫网页的基本流程:

  • 首先选取一部分精心挑选的种子URL。
  • 将这些URL放入待抓取URL队列。
  • 从待抓取URL队列中读取待抓取队列的URL,解析DNS,并且得到主机的IP,并将URL对应的网页下载下来,存储进已下载网页库中。此外,将这些URL放进已抓取URL队列。
  • 分析已抓取URL队列中的URL,从已下载的网页数据中分析出其他URL,并和已抓取的URL进行比较去重,最后将去重过的URL放入待抓取URL队列,从而进入下一个循环。
  • PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取

python免费学习资料以及群交流解答点击即可加入1、HTTP请求实现

使用urllib2/urllib实现:

urllib2和urllib是Python中的两个内置模块,要实现HTTP功能,实现方式是以urllib2为主,urllib为辅。

urllib2提供一个基础函数urlopen,通过向指定的URL发出请求来获取数据。最简单的形式是:

 

import urllib2response=urllib2.urlopen('http://www.zhihu.com')html=response.read()p
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值