Scrapy报错 Connection was closed 解决方法

发现问题

今天复原一个古老项目时,一直遇到了一个问题,Scrapy一直提示下载某链接时出错了,报错信息如下:

[<twisted.python.failure.Failure twisted.internet.error.ConnectionDone: Connection was closed cleanly.>]

这个错误以前也遇到过,但是并不知道如何去解决,去Google,有人说是加UA头,有人说是代理问题,专门用curl去测试代理,发现代理是OK的。

然后去检查UserAgent,试过各种发现均不行,

headers = {
    'User-Agent': "xxxxx",
    'Content-Type': "text/plain; charset=UTF-8",
    'Host': "xxxx",
    'Cache-Control': "no-cache",}

最后发现是Host不对,注释Host之后,发现就可以正常的采集数据了。然后重新抓包看了下该请求,发现Host已经更换,由于对Host不熟,所以专门写一篇来记录下,顺便复习下HTTP协议。

Host 字段

Host说明

服务器的域名(用于虚拟主机 ),以及服务器所监听的传输控制协议端口号。如果所请求的端口是对应的服务的标准端口,则端口号可被省略。自超文件传输协议版本1.1(HTTP/1.1)开始便是必需字段。

Host 示例

Host: en.wikipedia.org:80
Host: en.wikipedia.org

状态为:常设

来源:HTTP头字段

这篇文章讲的很清楚:网络---一篇文章详解请求头Host的概念

https://blog.csdn.net/netdxy/article/details/51195560

总结

  1. host字段可以是域名,也可以是ip地址。host字段域名/ip后可以跟端口号,如Host: www.6san.com:8080

  2. host可以由程序自定义,某些程序为了防止运营商或防火墙拦截会定义虚假host

  3. http1.1中host字段可以是空值,http1.0中可以缺失host字段

  4. http响应头中不包含host字段,所以wireshark中http.host过滤到的都是请求包

  5. 因为http头中的host字段可以由程序自定义,所以host字段的值就会有很多特殊情况,如包含多个’/'字符的HOST头信息,结尾含有”.”等

在http 1.1中不能缺失host字段,如果缺失,,服务器返回400 bad request,http1.1中不能缺失host字段,但host字段可以是空值。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值