网站解析对应**
http/s数据包(没经过代理服务器的)
客户端(游览器)->服务器(web server) request 请求
客户端(游览器)<-服务器(web server) response 响应
#request 请求数据包
#response 返回数据包
经过代理服务器
客户端->代理服务器(proxy server)->服务端
客户端<-代理服务器(proxy server)<-服务端
#proxy server 代理服务器
因为有了代理,不管是客户还是服务都可以进行伪造,就要看包怎么发了
burp suite 虽然是个web集成攻击平台但也相当于代理服务器
http https
http http
tcp ssl or tls
ip tcp
ip
http和https有什么不同?
1.http需要加密,而http不能
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-H4mLMjOb-1630497057038)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20210428195610210.png)]
http通信过程
自己去想,不然永远可能不会
client-> server
客户端向发送请求包服务端
服务器接收客户端的请求包
服务端向客户端发送响应包
服务端关闭连接 #之后修改的
小迪的
建立连接->发送请求数据包->返回响应数据包->关闭连接
1.游览器建立与web服务器之间的连接
2.游览器将请求数据打包(生成请求数据包),发送到web服务器
3.web服务器将处理结果打包(生成响应数据包)并发给游览器
4.web服务器关闭连接
#就如tcp三次握手一样 tcp/ip基于一切的通信…
request请求数据包数据格式
1.请求行:请求类型/请求资源路径(url),协议的版本和类型
2.请求头:一些键值对,游览器与服务器之间都可以发送,特定的某种含义
3.空行:请求头与请求体之间用一个空行隔开
4.请求体:要发送的数据(一般post提交会使用) 自己可以实践一下
#请求行
请求行有三个标记组成:请求方法,请求url和http版本,用空格分开
例如: GET /index.html HTTP/1.1
HTTP 规划定义了八种可能的请求方法:
GET 检索url中标识资源的一个简单请求
HEAD 与get方法相同,服务器只返回状态行和头标,并不返回请求文档
POST 服务器接受被写入客户端输出流中的数据请求
PUT 服务器保存请求数据作为指定url新内容的请求
DELETE 服务器删除url中命令的资源请求
OPTIONS 关于服务器支持的请求方法信息的请求
TRACE web服务器反馈http请求和其头标的请求
CONNECT 已文档化,但当前未实现的一个方法,预留做隧道处理
#请求头
由关键字/值对组成,每行一对,关键字和值用冒号分享。请求头标通知服务器腾于客户端的功能和标识。
host:主机或域名地址
accept:游览器接受的响应格式
text/html html格式 image/gif gif图片格式 application/xhtml+xml:XHTML
text/plain 纯文本格式 image/jpeg jpg图片格式
text/xml xml格式 image/png png图片格式
User-Agent(用户代理人):通过什么工具来请求的,是客户游览器名称(还有爬虫)
host:访问对应网址url中的web名称和端口号
accept-langeuage:指出游览器可以接受的语言种类,如en或en-us,指英语 zh-cn中文
connection:用来告诉服务器是否可以维持固定的http连接。http是无连接的,
两种状态:close 不支持使用长链接keep-alive
http/1.1使用keep-alive为默认值,这样,当游览器需要多个文件时(比如一个html文件和相关的图像文件),不需要每次都建立连接。
cookie:记载和服务器相关的用户信息
referer:表明产生请求的网页url
content-type:用来表名request的内容类型 text/plain texthtml
http响应码
1xx 信息,请求收到,继续处理
2xx 成功
3xx 重定向
4xx 客户端错误
5xx 服务器错误
200存在文件
403存在文件夹
3xx均可能存在
404 不在这文件及文件夹
500均可能存在
**