python  requests 乱码  ��“���`�Fj��#d��{_���s%x� “accept-encoding“: “gzip, deflate, br“

python  requests 乱码  ��"���`�Fj��#d��{_���s%x� 问题

感谢 CSDN 阿文 ID:CSDNnews

一个 Accept-Encoding 引发的 requests 爬虫乱码问题

最近在写一个内部的 RPA 项目,由于需要模拟请求一些网页的接口,拿到数据,但是发现通过 Python 的 requests 库 模拟请求 response 返回的数据是乱码的。 使用 requests 无法通过 repsonse.json 拿到 JSON 返回值,而浏览器返回以及 Postman 调试却是正常的

来看下请求信息,请求头是这样的

Accept: application/json Accept-Encoding: gzip, deflate, br Accept-Language: zh-CN,zh;q=0.9,en;q=0.8 Authorization: Bearer XXXX Cache-Control: no- cache Connection: keep-alive Content- Length: 21 Content- Type: application/ json;charset=UTF-8 Cookie: XXXX DNT: 1 Host: techs.qima-inc.com Origin: https://XXXX Pragma: no- cache Referer: https://XXXX Sec- Fetch-Dest: empty Sec- Fetch- Mode: cors Sec- Fetch-Site: same-origin User- Agent: Mozilla/ 5.0(X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.135 Safari/537.36

requests 去请求代码,由于希望模拟的更像一点,我直接把浏览器的请求信息全部拿过来了

headers = { 'Accept': 'application/json', 'Accept-Encoding': 'gzip, deflate, br', 'Accept-Language': 'zh-CN,zh;q=0.9,en;q=0.8', 'Cache-Control': 'no-cache', 'Connection': 'keep-alive', 'Content-Type': 'application/json;charset=UTF-8', 'DNT': '1', 'Host': 'xxx', 'Origin': 'https://xxx', 'Pragma': 'no-cache', 'Referer': 'https://xxx', 'Sec-Fetch-Dest': 'empty', 'Sec-Fetch-Mode': 'cors', 'Authorization': "Bearer {}".format( self.request_session.cookies.get( "TOKEN")), 'Sec-Fetch-Site': 'same-origin', 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) ' 'AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.111 Safari/537.36' }

response = self.request_session.put(url, headers=headers, json=payload) ifresponse.status_code != 200: return1resp_json = response.json

正常预期下 resp_json 会返回一段 json 格式的数据,而我却得到的是

  •  

json.decoder.JSONDecodeError: Expecting value: line 1column 1(char 0)

这说明无法解析json内容,我们将response 打印看看,如下所示,一堆乱码

  •  
  •  
  •  

� �ϵ|e;Q-�,��*��,C�D��� 'P�Ȫ�l��4Jަ6E��[��bP�Hdd��F��-)�1äj�ӼRX4�~�A���p�Wmo�D���0�

‍经过排查,发现是'Accept-Encoding' 的问题,我们直接把这个头去掉,发现可以正常返回数据了

  •  

{ "code": 0, "msg": null, "data": "[……}

这是为啥?事实上,在网页请求的时候,为了减少网页请求所消耗的带宽,提高数据传输的速度,通常会 把数据进行压缩传输,这里就需要用到' Accept-Encoding',它的值'gzip, deflate, br',这里的值代表的 意思是数据压缩采用的编码方式。通常我们还需要关注一个值,那就是响应头里面的'Content-Encoding'。

'Content-Encoding'是指服务端使用了哪种压缩方式传输数据给你,'Accept-Encoding'表示你发送请求时告诉服务器,我可以使用哪些编码解压缩你返回的数据。

服务端会根据你发送的'Accept-encoding'来决定用什么格式'Content-Encoding'压缩数据传输。

在 requests 中我们可以使用下面的方法打印该请求头

  •  
  •  

>>> response.request.headers[ "Accept-Encoding"] gzip, deflate, br

同时输出下服务端响应的压缩

  •  
  •  

>>> r.headers[ 'Content-Encoding'] 'br'

发现服务端给我们返回的是通过 'br' 进行解码数据,但是很遗憾, 'requets' 库支持 'gzip' 压缩和 'deflate' 压缩类型,但是不支持'br'。所以问题的点就出在了这里。

这里的 'br '是指 Brotli,它是 Google 推出的一款通用无损压缩算法,高压缩且性能快的编码方式,使用brotli取代[deflate](https://zh.wikipedia.org/wiki/DEFLATE)来对[文本文件](https://zh.wikipedia.org/wiki/文本文件)压缩通常可以增加20%的压缩密度,而压缩与解压缩速度则大致不变,项目地址见 https://github.com/google/brotli

所以我们发现了问题根源,解决方案有2种,一种是本地请求去掉 'br' 编码。另外一种就是本地获取到数据使用 'br'编码进行解码,下面重点说下第二种,其实也很简单:

1.首先,我们需要安装 Brotli

  •  

pip3 install Brotli

2.然后先获取到 'Content-Encoding' 判断是否是 'br' 编码,如果是,则进行解码

  •  
  •  

ifresponse.headers[ "Content-Encoding"] == 'br': resp_json = brotli.decompress(response.content)

这样就可以完美的解决问题。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值