Requests —— 请求头设置!

前戏

在我们进行自动化测试的时候,很多网站都会都请求头做个校验,比如验证 User-Agent,看是不是浏览器发送的请求,如果我们不加请求头,使用脚本访问,默认User-Agent是python,这样服务器如果进行了校验,就会拒绝我们的请求。所以,在做自动化的时候,加上必要的请求头是一个好习惯。

请求头设置

使用requests库添加请求头很简单,只需要传一个headers参数就可以了

import requests

base_url = 'http://httpbin.org'

form_data = {"user": "zou", "pwd": '31500'}
form_header = {"User-Agent": "Chrome/68.0.3440.106"}  # 设置请求头,字典格式
r = requests.post(base_url + '/post', data=form_data, headers=form_header)
print(r.url)  # 打印URL
print(r.status_code)
print(r.text)

结果:

http://httpbin.org/post
200
{
  "args": {}, 
  "data": "", 
  "files": {}, 
  "form": {
    "pwd": "31500", 
    "user": "zou"
  }, 
  "headers": {
    "Accept": "*/*", 
    "Accept-Encoding": "gzip, deflate", 
    "Content-Length": "18", 
    "Content-Type": "application/x-www-form-urlencoded", 
    "Host": "httpbin.org", 
    "User-Agent": "Chrome/68.0.3440.106"
  }, 
  "json": null, 
  "origin": "112.10.81.210, 112.10.81.210", 
  "url": "https://httpbin.org/post"
}

查看请求头

前面我们已经设置好了请求头,我们可以使用r.request.headers来查看请求头

import requests

base_url = 'http://httpbin.org'

form_data = {"user": "zou", "pwd": '31500'}
form_header = {"User-Agent": "Chrome/68.0.3440.106"}
r = requests.post(base_url + '/post', data=form_data, headers=form_header)

print(r.request.headers)  # 查看请求头

结果:

{'User-Agent': 'Chrome/68.0.3440.106', 'Accept-Encoding': 'gzip, deflate', 'Accept': '*/*', 'Connection': 'keep-alive', 'Content-Length': '18', 'Content-Type': 'application/x-www-form-urlencoded'}

 响应时间

当我们测接口的时候,我们肯定是想知道接口的响应时间,requests 提供了获取响应时间的方法

res.elapsed

获取到的数据格式如下

0:00:00.030363   # 单位为微秒

可以直接转为毫秒

res.elapsed.microseconds/1000

最后感谢每一个认真阅读我文章的人,看着粉丝一路的上涨和关注,礼尚往来总是要有的,虽然不是什么很值钱的东西,如果你用得到的话可以直接拿走! 

软件测试面试文档

我们学习必然是为了找到高薪的工作,下面这些面试题是来自阿里、腾讯、字节等一线互联网大厂最新的面试资料,并且有字节大佬给出了权威的解答,刷完这一套面试资料相信大家都能找到满意的工作。

在这里插入图片描述

  • 12
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在Python中使用requests库发送HTTP请求时,可以通过设置请求头(headers)来模拟浏览器请求,以解决反爬虫的问题。要设置请求头,可以通过创建一个字典,并将其作为参数传递给headers参数。 例如,假设我们要设置一个自定义的User-Agent头,可以使用以下代码: ```python import requests url = 'https://api.example.com/some/endpoint' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36' } response = requests.get(url, headers=headers) ``` 在这个例子中,我们创建了一个名为headers的字典,并将自定义的User-Agent头添加到其中。然后,我们将headers作为参数传递给get()方法,以发送带有自定义头的GET请求。 需要注意的是,headers的值必须是字符串、字节串或Unicode类型。尽管可以传递Unicode类型的header,但不推荐这样做。 此外,还要注意一些特殊情况。例如,如果在.netrc中设置了用户认证信息,使用headers参数设置的授权信息将不起作用。另外,如果被重定向到其他主机,授权头将被删除。代理授权头也会被URL中提供的代理身份覆盖。在能够确定内容长度的情况下,header的Content-Length会被改写。 总之,通过定制请求头,可以在使用Python的requests库发送HTTP请求时模拟浏览器,并解决一些反爬虫的问题。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [Python——爬虫【Requests设置请求头Headers】](https://blog.csdn.net/ysblogs/article/details/88530124)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [Pyhon : 爬虫Requests基础--定制请求头](https://blog.csdn.net/weixin_44523387/article/details/90718087)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值