文章目录
现在的大部分网站都是基于HTTP/1.x协议的,但是还有一小部分是HTTP/2.0的,遇到这样的网站,爬虫的很多常用库都没法用了,目前python 的requests库并不支持http/2.0网站,scrapy2.5.0 2021.4更新开始支持HTTP2.0,但是官网明确提示,现在是实验性的功能,不推荐用到生产环境,当前 Scrapy 的 HTTP/2.0 实现的已知限制包括:
- 不支持 HTTP/2.0 明文(h2c),因为没有主流浏览器支持未加密的 HTTP/2.0。
- 没有用于指定最大帧大小大于默认值 16384 的设置,发送更大帧的服务器的连接将失败。
- 不支持服务器推送。
- 不支持bytes_received和 headers_received信号。
关于其他的一些库,也不必多说了,对 HTTP/2.0 的支持也不好,目前对 HTTP/2.0 支持得还可以的有 hyper 和 httpx,后者更加简单易用一些。
hyper使用参考
HTTPX使用参考
解决方案上啊代码:

本文探讨了Python爬虫在面对HTTP/2.0协议网站时遇到的问题,由于requests库不支持HTTP/2.0,Scrapy虽然在最新版中实验性支持,但存在限制。解决方案包括使用httpx或hyper库。示例代码展示了如何使用httpx和hyper进行HTTP/2.0请求。
最低0.47元/天 解锁文章
526

被折叠的 条评论
为什么被折叠?



