HTTP特征
只要底层信道建立好了,应用层HTTP就不用建立了。
所有的协议解析都是数据分析,所以要求数据可靠安全。
rul:资源目录
http构成
请求正文可以看成是有效载荷,上面三个可以看成是协议报头
这里有个content-length来确定正文长度, 空行来断开报头和正文
抓包工具的原理:
浏览器的HTTP请求给fiddler转发
有些网页可以识别自己主机什么系统,原因user-agent里有相关信息
connection中是长短链接
set-cookie 是服务器给客户端
cookie是客户端给服务器
get方法通过url传参。
POST通过正文传参数。
POST方法比更GET方法更加私密。除非对数据加密,不然也没安全性
URL有长度限制
正文部分没有长度限制
4…客户端请求不合法
wget工具抓网页
反爬虫方法,用浏览器访问有这个字段的。没有就说明不是人发的
当客户端把账号密码发送给服务器,然后服务器再以set-cookie的方式把账号密码反写给客户端的浏览器
浏览器的安装目录里有一个文件,放的就是cookie信息。
从此以后,再特定的时间段内,浏览器每一次向服务器发送请求,都会包含字段叫做cookie,然后服务器会自动解析cookie进行相关认证。
cookie有内存级和硬盘级的
记住我这个选项本质就是写到硬盘级里
sid_session 服务器内的唯一id,保存在服务器内,通过认证后,会把sid发给客户端,写在cookie内。
现在cookie内只放sid
seesion比单cookie相对安全,不是绝对安全,还是有很多黑客成功的。
黑客只知道你的sid但是不知道这个sid是哪个网站的