Python爬虫 —— urllib库的使用(get post请求+模拟超时 浏览器)_urllib发送post请求

本文介绍了Python编程的全栈学习路线,包括基础知识、常用工具(如开发软件和学习视频)、爬虫技术(如工作原理和获取网页信息)以及如何模拟真实用户行为以应对反爬机制。强调了系统学习和实践的重要性,提供了一系列资源和社群支持。
摘要由CSDN通过智能技术生成

一、Python所有方向的学习路线

Python所有方向路线就是把Python常用的技术点做整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。

二、学习软件

工欲善其事必先利其器。学习Python常用的开发软件都在这里了,给大家节省了很多时间。

三、入门学习视频

我们在看视频学习的时候,不能光动眼动脑不动手,比较科学的学习方法是在理解之后运用它们,这时候练手项目就很适合了。

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化学习资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

+ - 2.1 获取一个GET请求
	- 2.2 获取一个POST请求
+ 3.模拟访问页面超时
+ 4.假装自己是一个genuine browser

1.Python爬虫的工作过程

爬虫简介:网络爬虫就是按照一定规则,自动抓取互联网信息的程序或脚本,由于互联网数据的多样性和资源的有限性,根据用户需求定向抓取相关网页并分析就是爬虫要做的工作

为什么我们把它称为爬虫(Spider)嘞?互联网就像是一张大网,而每一个网页就是这张大网上的每一个结点,这些结点间的通信和跳转通过链接来实现,而这个链接就是互联网这张大网上结点之间的连线,爬虫到达一个结点就意味着可以爬取这个页面的信息,当爬虫顺着这些连线(链接)爬向不同的结点(网页)时,就可以爬取到整个网站的信息

只要你能通过浏览器访问的数据都能通过爬虫获取

爬虫的主要工作就是获取网页信息,它其实就是一个获取网页并提取和保存信息的自动化程序,它的工作流程可分为:获取网页 --> 提取信息 --> 保存数据

1.1 获取网页

在拿到我们想要爬取的网页的链接之后,我们要做的第一件事情就是获取这个网页的源代码,网页就是用HTML和CSS以及一些内嵌的JS代码编写成的,这些代码信息中就蕴含着我们想要爬取的信息

我们怎么获取网页的源代码,这就是问题的关键,我们作为一个用户(浏览器)向这个网站的服务器发送请求Request时,服务器就会给我们返回网页的源代码在解析后用于在浏览器呈现完整的页面,Python为我们提供了很多库来帮助我们实现这个操作在获取源代码后我们对其中的数据做一系列的数据解析即可

1.2 提取信息

在获取到页面的源代码后,就要开始获取其中的信息了,分析网页源代码并从中提取信息,我们提取信息可以用正则表达式,也可以用根据网页结点属性、CSS选择器或者Xpath来提取信息的库:Beautiful Soup(漂亮汤)、pyquery和lxml等,通过这些库我们可以高校地从网页源代码中提取网页信息

正则表达式不太受欢迎,或者说它并不好用,因为它在构造时很复杂而且容错率较低

1.3 保存数据

在提取到我们指定的信息后,我们通常会把这些信息保存起来方便后续使用,而数据的保存我们第一个想到的就是数据库MySQL和MongDB,当然我们还能简单地保存为txt文本或json文本

2.获取一个 POST / GET 请求

这一部分我们来看看怎么以GET和POST的方式向服务器发送请求并取得回应

2.1 获取一个GET请求

urllib库中的request对象有一个urlopen()方法,它可以帮助我们打开一个网页并向服务器发送请求然后获取源代码

我们定义一个response来接收urlopen方法返回的信息并用read()方法把源代码读取出来

response = urllib.request.urlopen("http://www.baidu.com")
print(response.read().decode('utf-8'))


在这里插入图片描述

使用urllib访问一个页面时,建议对返回的内容用decode()方法做一个解码,相对应的,encode()就是指定编码方式

2.2 获取一个POST请求

对于获取一个POST请求我们要用到一个网站:http://httpbin.org,这是一个专门用来测试的网站,当我们以post方式向这个网站的服务器发送请求时,它会给我们返回响应的特定信息

在这里插入图片描述

它的意思是说当我们访问http://httpbin.org时加个/post后缀再访问,就意味着我们是通过post获取响应,而post我们也不能直接使用,因为这种方式通常用于给服务器传递账号密码等表单信息,所有我们要加一个表单信息在里面,而表单信息我们通过键值对的方式传递

然后我们再看一个urllib库的对象parse,它是一个解析器,用于对我们的表单信息进行解析,它提供了一个urlencode()方法放置我们的表单信息,还需要一个指定encoding属性,对我们的表单信息做一个编码然后传递给服务器

data = bytes(urllib.parse.urlencode({"hello": "world"}), encoding="utf-8")    
# 需要使用urllib的parse对象,它是一个解析器,对我们的表单信息进行解析
response02 = urllib.request.urlopen("http://httpbin.org/post", data=data)
print(response02.read().decode('utf-8'))


在这里插入图片描述

3.模拟访问页面超时

有时候我们长时间访问不到一个页面,可能是因为网速有限或者被发现我们是一个爬虫

# 模拟超时(网速有限或对方发现你是爬虫)
try:
    response03 = urllib.request.urlopen("http://httpbin.org/get", timeout=0.01)
    print(response03.read().decode('utf-8'))
except urllib.error.URLError as e:
    print("访问已超时 !!!!")


这个timeout就是一个超时信息,如果访问页面的时间超过了这个时间就会被认定为访问超时,此时网页服务器有可能会作出相应的操作

在这里插入图片描述

4.假装自己是一个genuine browser

但是一般的网站都会有各种反爬机制,这个时候我们就要假装自己不是爬虫,我们是一个真正的浏览器是一个用户,当我们以正常用户的形式访问某个页面的时候,就可以获取页面中的信息

如果这个网站发现了我们是一个爬虫,就会给我们一个418的状态码

# 响应头(被别人发现你是爬虫会爆418)
response04 = urllib.request.urlopen("http://httpbin.org/get")
print(response04.status)    
# 状态码,被别人发现你是爬虫会爆418
print(response04.getheader("Server"))   
# 这个就是浏览器在NetWork中response Header中的信息
# 在getHeader()中传入参数,例如Server,就会返回指定的信息


上述代码我们是用get请求访问了http://httpbin.org/get,这个网页的反爬机制不是那么的严格敏感,所以我们可以正常爬取其中的源代码信息

在这里插入图片描述

在这里插入图片描述

感谢每一个认真阅读我文章的人,看着粉丝一路的上涨和关注,礼尚往来总是要有的:

① 2000多本Python电子书(主流和经典的书籍应该都有了)

② Python标准库资料(最全中文版)

③ 项目源码(四五十个有趣且经典的练手项目及源码)

④ Python基础入门、爬虫、web开发、大数据分析方面的视频(适合小白学习)

⑤ Python学习路线图(告别不入流的学习)

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化学习资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

  • 23
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值