【Linux网络】应用层http协议&&cookie与session&&https协议

W...Y的主页 😊

代码仓库分享💕 


前言:上篇博客中我们已经认识了应用层,通过实现简易计算器,将ISO制定的七层网络协议的后三层进行了分层体现,自己制定了对应的协议进行网络传输。而今天我们学习一下应用层非常有名的协议HTTP协议。话不多说我们直接进入主题。

HTTP 历史及版本核心技术与时代背景 

HTTP(Hypertext Transfer Protocol,超文本传输协议)作为互联网中浏览器和服务
器间通信的基石,经历了从简单到复杂、从单一到多样的发展过程。以下将按照时间
顺序,介绍 HTTP 的主要版本、核心技术及其对应的时代背景。

HTTP/0.9

核心技术:
• 仅支持 GET 请求方法。
• 仅支持纯文本传输,主要是 HTML 格式。
• 无请求和响应头信息。
时代背景:
• 1991 年,HTTP/0.9 版本作为 HTTP 协议的最初版本,用于传输基本的超文本HTML 内容。
• 当时的互联网还处于起步阶段,网页内容相对简单,主要以文本为主。 

HTTP/1.0 

核心技术:
• 引入 POST 和 HEAD 请求方法。
• 请求和响应头信息,支持多种数据格式(MIME)。
• 支持缓存(cache)。
• 状态码(status code)、多字符集支持等。
时代背景:
• 1996 年,随着互联网的快速发展,网页内容逐渐丰富,HTTP/1.0 版本应运而生。
• 为了满足日益增长的网络应用需求,HTTP/1.0 增加了更多的功能和灵活性。
• 然而,HTTP/1.0 的工作方式是每次 TCP 连接只能发送一个请求,性能上存在一定局限。 

HTTP/1.1 

核心技术:
• 引入持久连接(persistent connection),支持管道化(pipelining)。
• 允许在单个 TCP 连接上进行多个请求和响应,提高了性能。
• 引入分块传输编码(chunked transfer encoding)。
• 支持 Host 头,允许在一个 IP 地址上部署多个 Web 站点。
时代背景:
• 1999 年,随着网页加载的外部资源越来越多,HTTP/1.0 的性能问题愈发突出。
• HTTP/1.1 通过引入持久连接和管道化等技术,有效提高了数据传输效率。
• 同时,互联网应用开始呈现出多元化、复杂化的趋势,HTTP/1.1 的出现满足了这些需求。 

HTTP/2.0 

核心技术:
• 多路复用(multiplexing),一个 TCP 连接允许多个 HTTP 请求。
• 二进制帧格式(binary framing),优化数据传输。
• 头部压缩(header compression),减少传输开销。
• 服务器推送(server push),提前发送资源到客户端。
时代背景:
• 2015 年,随着移动互联网的兴起和云计算技术的发展,网络应用对性能的要求越来越高。
• HTTP/2.0 通过多路复用、二进制帧格式等技术,显著提高了数据传输效率和网络性能。
• 同时,HTTP/2.0 还支持加密传输(HTTPS),提高了数据传输的安全性。 

HTTP/3.0 

核心技术:
• 使用 QUIC 协议替代 TCP 协议,基于 UDP 构建的多路复用传输协议。
• 减少了 TCP 三次握手及 TLS 握手时间,提高了连接建立速度。
• 解决了 TCP 中的线头阻塞问题,提高了数据传输效率。
时代背景:
• 2022 年,随着 5G、物联网等技术的快速发展,网络应用对实时性、可靠性的要求越来越高。
• HTTP/3.0 通过使用 QUIC 协议,提高了连接建立速度和数据传输效率,满足了这些需求。
• 同时,HTTP/3.0 还支持加密传输(HTTPS),保证了数据传输的安全性。 

 HTTP 协议

虽然我们说, 应用层协议是我们程序猿自己定的. 但实际上, 已经有大佬们定义了一些现成的, 又非常好用的应用层协议, 供我们直接参考使用. HTTP(超文本传输协议)就是其中之一。
在互联网世界中,HTTP(HyperText Transfer Protocol,超文本传输协议)是一个至关重要的协议。它定义了客户端(如浏览器)与服务器之间如何通信,以交换或传输超文本(如 HTML 文档)。
HTTP 协议是客户端与服务器之间通信的基础。客户端通过 HTTP 协议向服务器发送请求,服务器收到请求后处理并返回响应。HTTP 协议是一个无连接、无状态的协议,即每次请求都需要建立新的连接,且服务器不会保存客户端的状态信息。

认识 URL 

平时我们俗称的 "网址" 其实就是说的URL,也叫做统一资源定位符。

1.首先我们的协议方案名表示我们本次所使用的协议具体内容。
一般常见的协议方案名有:

  1. HTTP (HyperText Transfer Protocol):超文本传输协议,用于从Web服务器传输超文本到本地浏览器。

  2. HTTPS (HTTP Secure):安全超文本传输协议,是HTTP协议的安全版本,通过SSL/TLS提供加密传输。

  3. FTP (File Transfer Protocol):文件传输协议,用于在网络上的计算机之间传输文件。

  4. SFTP (Secure File Transfer Protocol):安全文件传输协议,是FTP的安全性加强版本,使用SSH进行加密。

  5. SMTP (Simple Mail Transfer Protocol):简单邮件传输协议,用于发送电子邮件。

  6. POP3 (Post Office Protocol version 3):邮局协议第三版,用于接收电子邮件。

  7. IMAP (Internet Message Access Protocol):互联网消息访问协议,用于访问和管理电子邮件。

  8. SSH (Secure Shell):安全外壳协议,用于安全地访问远程计算机。

  9. Telnet:一种网络协议,用于远程登录到服务器并执行命令,但由于安全问题,已逐渐被SSH所取代。

  10. DNS (Domain Name System):域名系统,将域名转换为IP地址。

  11. DHCP (Dynamic Host Configuration Protocol):动态主机配置协议,用于自动分配IP地址给网络中的设备。

  12. SNMP (Simple Network Management Protocol):简单网络管理协议,用于网络管理。

  13. LDAP (Lightweight Directory Access Protocol):轻量级目录访问协议,用于访问和维护分布式目录信息服务。

  14. RTP (Real-time Transport Protocol):实时传输协议,用于传输音频和视频数据。

  15. RTSP (Real Time Streaming Protocol):实时流媒体协议,用于控制流媒体服务器中的会话。

  16. XMLRPC (XML Remote Procedure Call):XML远程过程调用,一种使用XML编码的RPC协议。

  17. JSON-RPC (JSON Remote Procedure Call):JSON远程过程调用,一种使用JSON格式的数据交换协议。

  18. SOAP (Simple Object Access Protocol):简单对象访问协议,一种基于XML的、用于网络服务的协议。

  19. BGP (Border Gateway Protocol):边界网关协议,用于互联网上进行网络之间的路由。

  20. NTP (Network Time Protocol):网络时间协议,用于同步网络设备的时钟。

2.登录信息
在这种方式中,用户名和密码被编码并附加到URL中,以供访问受保护的资源。以下是登录信息在URL 。处于安全考虑用户名和密码在URL中是明文传输,可能被网络监听者截获,所以现代Web应用通常会避免在URL中直接传递登录信息,而是使用更为安全的认证机制。

3.服务器地址

也就是我们所说的ip(域名),这样可以准确的找到我们的服务器来获取资源。例如www.baidu.com等等都属于服务器地址。

4.服务器端口号

我们在socket编程中使用listen进行监听时需要绑定对应的端口号,如果服务器监听的不是默认端口(如HTTP的80或HTTPS的443),则需要指定端口号。

常见的知名端口号:

  1. HTTP - 80:用于Web服务器,传输超文本的协议。
  2. HTTPS - 443:HTTP的安全版本,通过SSL/TLS加密传输。
  3. FTP - 21:文件传输协议,用于文件的上传和下载。
  4. SSH - 22:安全外壳协议,用于安全远程登录和其他安全网络服务。
  5. Telnet - 23:远程登录服务,已逐渐被SSH取代。
  6. SMTP - 25:简单邮件传输协议,用于发送电子邮件。
  7. POP3 - 110:邮局协议第三版,用于接收电子邮件。
  8. IMAP - 143:互联网消息访问协议,用于访问和管理电子邮件。
  9. LDAP - 389:轻量级目录访问协议,用于访问和维护分布式目录信息。

5.带层次的文件路径

http超文本传输协议就是为了拿取资源,而资源全部都在服务器中。我们想要确定一个资源首先就要确定其IP+port找到服务器唯一进程,再通过文件路径找到具体的哪一个资源。所以我们就要提供唯一路径来获取资源。

 6.查询字符串

用于提供附加参数,用?开始,后面跟着参数名和值,多个参数用&分隔。查询字符串的内容通常由键值对组成,每个键值对用等号=连接。

查询字符串的作用:

  1. 数据传递:在表单提交时,将表单中的数据作为查询字符串附加在URL后,以便发送到服务器。

  2. 过滤和排序:在API请求中,查询字符串用于指定过滤条件、排序规则或搜索关键字。

  3. 用户偏好设置:保存用户的偏好设置或配置,例如主题、语言或布局。

  4. 状态信息:传递状态信息或标识,如会话标识、用户ID或访问令牌。

  5. 页面导航:在某些单页面应用(SPA)中,查询字符串用于在不重新加载页面的情况下传递状态或导航信息。

  6. 跟踪和分析:包含跟踪参数,用于网站分析或广告跟踪。

  7. 重定向和链接管理:在重定向URL或管理链接时,使用查询字符串传递额外信息。

 比如我们在百度中搜索CSDN,其中查询字符串中就有一个wd = cddn的键值对。

7.片段标识符:它在URL的末尾,跟在井号(#)后面。片段标识符用于指向资源内部的特定部分,这个资源可以是HTML页面、PDF文件、或者其他类型的文档。

主要用途:

  1. 页面内导航:在HTML文档中,片段标识符可以用来链接到页面内的一个特定部分,如一个章节、图片、表格或脚注。

  2. 滚动位置:当用户点击包含片段标识符的链接时,浏览器会滚动到文档中相应的位置。

  3. 用户界面更新:在单页面应用(SPA)中,片段标识符可以用来更新页面的UI组件,而无需重新加载整个页面。

  4. 持久链接:创建指向页面特定部分的持久链接,使得用户可以书签或分享这些链接。

  5. 内容锚点:在文档中,片段标识符可以作为内容的锚点,用于引用或注释。

  6. 避免页面刷新:在动态内容加载的情况下,使用片段标识符可以更新页面的特定部分而避免整个页面的刷新。

  7. 跟踪和分析:网站分析工具可能使用片段标识符来跟踪用户在页面上的行为。

  8. 状态恢复:在某些应用中,片段标识符可以用于保存和恢复页面的状态。

 urlencode 和 urldecode

像 / ? : 等这样的字符, 已经被 url 当做特殊意义理解了. 因此这些字符不能随意出现.比如, 某个参数中需要带有这些特殊字符, 就必须先对特殊字符进行转义.

转义的规则如下:
将需要转码的字符转为 16 进制,然后从右到左,取 4 位(不足 4 位直接处理),每 2 位做一位,前面加上%,编码成%XY 格式

 "+" 被转义成了 "%2B"
urldecode 就是 urlencode 的逆过程;

UrlEncode编码/UrlDecode解码 - 站长工具为了让包含中文的URL可以使用,您可以使用本工具对中文进行UrlEncode编码。icon-default.png?t=N7T8http://tool.chinaz.com/Tools/urlencode.aspx

 HTTP 协议请求与响应格式

HTTP 请求

请求行: [方法] + [url] + [版本]
请求报头: 请求的属性, 冒号分割的键值对;每组属性之间使用\r\n 分隔;遇到空行表示 Header 部分结束。
空行:/r/n
正文: 空行后面的内容都是 Body. Body 允许为空字符串. 如果 Body 存在, 则在Header 中会有一个 Content-Length 属性来标识 Body 的长度; 

 上图就是我们http请求的格式,当我们创建一个能响应http服务器时就要使用其对应的格式进行。所以我们得创建一个request类的请求来接收客户端给我们发送的内容。

重点:其中我们的URL中的带层次的文件路径默认情况都是/根目录。而这个根目录不是我们所谓Linux中的根目录,URL的根目录通常指的是Web服务器上配置的网站内容的顶级目录,这是相对于Web服务器的文件系统而言的。一般在我们服务器内部还需要一个可以保存资源的目录,一般是wwwroot目录,该目录下可以存储许多静态网页、音频、图片等。

而http可以支持默认首页,一般是index.html/index.htm,所以我们的url遇到/一般会直接拼接上wwwroot + index.html来访问index静态网页。

这样我们就可以实现一个http请求的类。而对这个request类的成员肯定要有http格式中的所有内容:

std::string _req_line; //状态行
std::vector<std::string> _req_header; //报头
std::string _blank_line; //空行
std::string _req_text;  //正文

我们接收到一个http请求时必须要进行处理,所以得到这些内容就是为了更好的反序列化。反序列化即将请求字符串的内容解析出来,分别赋给结构化数据的字段。

class HttpRequest
{
private:
    // \r\n正文
    std::string GetOneline(std::string &reqstr)  //获得每一行
    {
        if (reqstr.empty())
            return reqstr;
        auto pos = reqstr.find(sep);
        if (pos == std::string::npos)
            return std::string();

        std::string line = reqstr.substr(0, pos);
        reqstr.erase(0, pos + sep.size());
        return line.empty() ? sep : line;
    }
    bool ParseHeaderHelper(const std::string &line, std::string *k, std::string *v)//找kv
    {
        auto pos = line.find(header_sep);
        if (pos == std::string::npos)
            return false;

        *k = line.substr(0, pos);
        *v = line.substr(pos + header_sep.size());
        return true;
    }

public:
    HttpRequest() : _blank_line(sep), _path(wwwroot)
    {
    }
    void Serialize()
    {
    }
    void Derialize(std::string &reqstr) //初始化所有成员
    {
        _req_line = GetOneline(reqstr);
        while (true)
        {
            std::string line = GetOneline(reqstr);
            if (line.empty())
                break;
            else if (line == sep)
            {
                _req_text = reqstr;
                break;
            }
            else
            {
                _req_header.emplace_back(line);
            }
        }

        ParseReqLine();//
        ParseHeader();
    }
    bool ParseReqLine()
    {
        if (_req_line.empty())
            return false;
        std::stringstream ss(_req_line);
        ss >> _method >> _url >> _version;

        // /index.html?use=zhangsan&passwd=123456
        if (strcasecmp("get", _method.c_str()) == 0)
        {
            auto pos = _url.find(args_sep);
            if (pos != std::string::npos)
            {
                LOG(INFO, "change begin, url: %s\n", _url.c_str());
                _args = _url.substr(pos + args_sep.size());
                _url.resize(pos);
                LOG(INFO, "change done, url: %s, _args: %s\n", _url.c_str(), _args.c_str());
            }
        }

        _path += _url;

        LOG(DEBUG, "url: %s\n", _url.c_str());

        // 判断一下是不是请求的/ -- wwwroot/
        if (_path[_path.size() - 1] == '/')
        {
            _path += homepage;
        }
        auto pos = _path.rfind(filesuffixsep);
        if (pos == std::string::npos)
        {
            _suffix = ".unknown";
        }
        else
        {
            _suffix = _path.substr(pos);
        }

        LOG(INFO, "client wang get %s, _suffix: %s\n", _path.c_str(), _suffix.c_str());
        return true;
    }
    bool ParseHeader()//填充hash
    {
        for (auto &header : _req_header)
        {
            // Connection: keep-alive
            std::string k, v;
            if (ParseHeaderHelper(header, &k, &v))
            {
                _headers.insert(std::make_pair(k, v));
            }
        }
        return true;
    }
    std::string Path()
    {
        return _path;
    }
    std::string Suffix()
    {
        return _suffix;
    }
    bool IsExec()
    {
        return !_args.empty() || !_req_text.empty();
    }
    std::string Args()
    {
        return _args;
    }
    std::string Text()
    {
        return _req_text;
    }
    std::string Method()
    {
        return _method;
    }
    ~HttpRequest()
    {
    }

private:
    // 原始协议内容
    std::string _req_line; //状态行
    std::vector<std::string> _req_header; //报头
    std::string _blank_line; //空行
    std::string _req_text;  //正文

    // 期望解析的结果
    std::string _method; //http方法 get/post
    std::string _url;    //url
    std::string _args;   //
    std::string _path;   //访问路径
    std::string _suffix;  //Content-Type: 数据类型(text/html 等)
    std::string _version;  //http版本

    std::unordered_map<std::string, std::string> _headers;  //报头
};

HTTP 响应

首行: [版本号] + [状态码] + [状态码解释]
Header: 请求的属性, 冒号分割的键值对;每组属性之间使用\r\n 分隔;遇到空行表示 Header 部分结束。
Body: 空行后面的内容都是 Body. Body 允许为空字符串. 如果 Body 存在, 则在Header 中会有一个 Content-Length 属性来标识 Body 的长度; 如果服务器返回了一个 html 页面, 那么 html 页面内容就是在 body 中.

 基本的应答格式

class HttpResponse
{
public:
    HttpResponse() : _version(httpversion), _blank_line(sep)
    {
    }
    ~HttpResponse()
    {
    }
    void AddStatusLine(int code, const std::string &desc)
    {
        _code = code;
        _desc = desc; // TODO
    }
    void AddHeader(const std::string &k, const std::string &v)
    {
        LOG(DEBUG, "AddHeader: %s->%s\n", k.c_str(), v.c_str());
        _headers[k] = v;
    }
    void AddText(const std::string &text)
    {
        _resp_text = text;
    }
    std::string Serialize()
    {
        std::string _status_line = _version + space + std::to_string(_code) + space + _desc + sep;
        for (auto &header : _headers)
        {
            _resp_header.emplace_back(header.first + header_sep + header.second + sep);
        }
        // 序列化
        std::string respstr = _status_line;
        for (auto &header : _resp_header)
        {
            respstr += header;
        }
        respstr += _blank_line;
        respstr += _resp_text;
        return respstr;
    }

private:
    // 构建应答的必要字段
    std::string _version; //http版本
    int _code;    //状态码
    std::string _desc;  // 状态码描述
    std::unordered_map<std::string, std::string> _headers; //报头 k,v

    // 应答的结构化字段
    std::string _status_line;   //状态行
    std::vector<std::string> _resp_header; //报头
    std::string _blank_line; //空行
    std::string _resp_text; //正文
};

 我们添加一些http响应的字段,将回应的报文进行序列化后即可。

HTTP 常见 Header 

Content-Type: 数据类型(text/html 等)
Content-Length: Body 的长度 
Host: 客户端告知服务器, 所请求的资源是在哪个主机的哪个端口上;
User-Agent: 声明用户的操作系统和浏览器版本信息;
referer: 当前页面是从哪个页面跳转过来的;
Location: 搭配 3xx 状态码使用, 告诉客户端接下来要去哪里访问;
Cookie: 用于在客户端存储少量信息. 通常用于实现会话(session)的功能;

(1)Host

Host字段表明了客户端要访问的服务的IP和端口。

Host字段用于指定客户端想要访问的HTTP服务器的域名/IP地址和端口号。

这样,即使多个网站托管在同一台服务器上,服务器也能根据Host字段的值将请求正确路由到对应的网站。

(2)User-Agent

User-Agent代表的是客户端对应的操作系统和浏览器的版本信息。

比如当我们用电脑下载某些软件时,它会自动向我们展示与我们操作系统相匹配的版本,这实际就是因为我们在向目标网站发起请求的时候,User-Agent字段当中包含了我们的主机信息,此时该网站就会向你推送相匹配的软件版本。

(3)Referer

Referer代表的是你当前是从哪一个页面跳转过来的。Referer记录上一个页面的好处一方面是方便回退,另一方面可以知道我们当前页面与上一个页面之间的相关性。

(4)Keep-Alive(长连接)

HTTP/1.0是通过request&response的方式来进行请求和响应的,HTTP/1.0常见的工作方式就是客户端和服务器先建立链接,然后客户端发起请求给服务器,服务器再对该请求进行响应,然后立马端口连接。

但如果一个连接建立后客户端和服务器只进行一次交互,就将连接关闭,就太浪费资源了,因此现在主流的HTTP/1.1是支持长连接的。所谓的长连接就是建立连接后,客户端可以不断的向服务器一次写入多个HTTP请求,而服务器在上层依次读取这些请求就行了,此时一条连接就可以传送大量的请求和响应,这就是长连接。

关于 connection 报头
HTTP 中的 Connection 字段是 HTTP 报文头的一部分,它主要用于控制和管理客户端与服务器之间的连接状态
核心作用
• 管理持久连接:Connection 字段还用于管理持久连接(也称为长连接)。持久连接允许客户端和服务器在请求/响应完成后不立即关闭 TCP 连接,以便在同一个连接上发送多个请求和接收多个响应。
持久连接(长连接)
• HTTP/1.1:在 HTTP/1.1 协议中,默认使用持久连接。当客户端和服务器都不明确指定关闭连接时,连接将保持打开状态,以便后续的请求和响应可以复用同一个连接。
• HTTP/1.0:在 HTTP/1.0 协议中,默认连接是非持久的。如果希望在 HTTP/1.0上实现持久连接,需要在请求头中显式设置 Connection: keep-alive。语法格式
• Connection: keep-alive:表示希望保持连接以复用 TCP 连接。
• Connection: close:表示请求/响应完成后,应该关闭 TCP 连接。

 下面附上一张关于 HTTP 常见 header 的表格

字段名含义样例
Accept客户端可接受的响应内容类型Accept:
text/html,application/xhtml+xml,app
lication/xml;q=0.9,image/webp,image
/apng,*/*;q=0.8
Accept-
Encoding
客户端支持的数据压缩格式Accept-Encoding: gzip, deflate, br
Accept-
Language
客户端可接受的语言类型Accept-Language: zh-CN,zh;q=0.9,en;q=0.8
Host 请求的主机名和端口号Host: www.example.com:8080
User-Agent客户端的软件环境信息User-Agent: Mozilla/5.0 (Windows NT
10.0; Win64; x64)
AppleWebKit/537.36 (KHTML, like
Gecko) Chrome/91.0.4472.124
Safari/537.36
Cookie客户端发送给服务器的 HTTPcookie 信息Cookie: session_id=abcdefg12345;user_id=123
Referer 请求的来源 URLReferer:
http://www.example.com/previous_page.html
Content-Type实体主体的媒体类型Content-Type: application/x-www-
form-urlencoded (对于表单提交) 或
Content-Type: application/json (对于
JSON 数据)
Content-Length实体主体的字节大小Content-Length: 150
Authorization认证信息,如用户名和密码Authorization: Basic
QWxhZGRpbjpvcGVuIHNlc2FtZQ== (Base64
编码后的用户名:密码)
Cache-Control缓存控制指令请求时:Cache-Control: no-cache 或
Cache-Control: max-age=3600;响应
时:Cache-Control: public, max-
age=3600
Connection请求完后是关闭还是保持连接Connection: keep-alive 或Connection: close
Date请求或响应的日
期和时间
Date: Wed, 21 Oct 2023 07:28:00 GMT
Location重定向的目标
URL(与 3xx 状
态码配合使用)
重定向的目标URL(与 3xx 状态码配合使用)
Server 服务器类型Server: Apache/2.4.41 (Unix)
Last-Modified 资源的最后修改时间Last-Modified: Wed, 21 Oct 202307:20:00 GMT
ETag资源的唯一标识符,用于缓存ETag: "3f80f-1b6-5f4e2512a4100"
Expires响应过期的日期和时间Expires: Wed, 21 Oct 2023 08:28:00GMT

HTTP 的方法

 其中最常用的就是 GET 方法和 POST 方法.

HTTP 常见方法 

1. GET 方法(重点)
用途:用于请求 URL 指定的资源。
示例:GET /index.html HTTP/1.1
特性:指定资源经服务器端解析后返回响应内容。
form 表单:https://www.runoob.com/html/html-forms.html 

2. POST 方法(重点)
用途:用于传输实体的主体,通常用于提交表单数据。
示例:POST /submit.cgi HTTP/1.1
特性:可以发送大量的数据给服务器,并且数据包含在请求体中。
form 表单:https://www.runoob.com/html/html-forms.html 

3. PUT 方法(不常用)
用途:用于传输文件,将请求报文主体中的文件保存到请求 URL 指定的位置。
示例:PUT /example.html HTTP/1.1
特性:不太常用,但在某些情况下,如 RESTful API 中,用于更新资源。

4. HEAD 方法
用途:与 GET 方法类似,但不返回报文主体部分,仅返回响应头。
示例:HEAD /index.html HTTP/1.1
特性:用于确认 URL 的有效性及资源更新的日期时间等。 

GET方法一般用于获取或上传某种资源信息,而POST方法一般用于将数据上传给服务器,区别在于GET方法通过url上传参数(数据),POST方法通过正文传参(数据)。 

get和post方法都可以数据上传,但是get方法传输是通过url传递,信息量小反之post是使用正文数据传递的,但是两个都是不安全的,通过抓包我们可以获得post传向正文的数据,所以要通过加密的形式进行才相对安全。 

HTTP 的状态码 

最常见的状态码, 比如 200(OK), 404(Not Found), 403(Forbidden), 302(Redirect, 重定
向), 504(Bad Gateway)

状态码含义样例
100Continue上传大文件时,服务器告诉客户端可以继续上传
200OK 访问网站首页,服务器返回网页内容
201Created发布新文章,服务器返回文章创建成功的信息
204No Content删除文章后,服务器返回“无内容”表示操作成功
301Moved
Permanently
网站换域名后,自动跳转到新域名;搜索引擎更新网站链接时使用
302Found 或 See Other用户登录成功后,重定向到用户首页
304Not Modified浏览器缓存机制,对未修改的资源返回304 状态码
400Bad Request填写表单时,格式不正确导致提交失败
401Unauthorized访问需要登录的页面时,未登录或认证失败
403Forbidden尝试访问你没有权限查看的页面
404Not Found访问不存在的网页链接
500Internal Server
Error
服务器崩溃或数据库错误导致页面无法
加载
502Bad Gateway使用代理服务器时,代理服务器无法从上游服务器获取有效响应
503Service
Unavailable
服务器维护或过载,暂时无法处理请求

Redirection(重定向状态码)

重定向就是通过各种方法将各种网络请求重新定个方向转到其它位置,类似于超链接。重定向又可分为临时重定向和永久重定向,其中状态码301表示的就是永久重定向,而状态码302和307表示的是临时重定向。 

 HTTP 状态码 301(永久重定向):
• 当服务器返回 HTTP 301 状态码时,表示请求的资源已经被永久移动到新的位置。
• 在这种情况下,服务器会在响应中添加一个 Location 头部,用于指定资源的新位置。这个 Location 头部包含了新的 URL 地址,浏览器会自动重定向到该地址。
• 例如,在 HTTP 响应中,可能会看到类似于以下的头部信息:

HTTP/1.1 301 Moved Permanently\r\n
Location: https://www.new-url.com\r\n

HTTP 状态码 302(临时重定向):
• 当服务器返回 HTTP 302 状态码时,表示请求的资源临时被移动到新的位置。
• 同样地,服务器也会在响应中添加一个 Location 头部来指定资源的新位置。浏览器会暂时使用新的 URL 进行后续的请求,但不会缓存这个重定向。
• 例如,在 HTTP 响应中,可能会看到类似于以下的头部信息:

HTTP/1.1 302 Found\r\n
Location: https://www.new-url.com\r\n

总结:无论是 HTTP 301 还是 HTTP 302 重定向,都需要依赖 Location 选项来指定资
源的新位置。这个 Location 选项是一个标准的 HTTP 响应头部,用于告诉浏览器应该
将请求重定向到哪个新的 URL 地址。 

cookie 与 session

一种关于登录的场景演示 - B 站登录和未登录
• 问题:B 站是如何认识我这个登录用户的?
• 问题:HTTP 是无状态,无连接的,怎么能够记住我?

引入 HTTP Cookie 

HTTP Cookie(也称为 Web Cookie、浏览器 Cookie 或简称 Cookie)是服务器发送到用户浏览器并保存在浏览器上的一小块数据,它会在浏览器之后向同一服务器再次发起请求时被携带并发送到服务器上。通常,它用于告知服务端两个请求是否来自同一浏览器,如保持用户的登录状态、记录用户偏好等。

工作原理

○ 当用户第一次访问网站时,服务器会在响应的 HTTP 头中设置 Set-Cookie字段,用于发送 Cookie 到用户的浏览器。
○ 浏览器在接收到 Cookie 后,会将其保存在本地(通常是按照域名进行存储)。
○ 在之后的请求中,浏览器会自动在 HTTP 请求头中携带 Cookie 字段,将之前保存的 Cookie 信息发送给服务器。 

分类

○ 会话 Cookie(Session Cookie):在浏览器关闭时失效。
○ 持久 Cookie(Persistent Cookie):带有明确的过期日期或持续时间,可以跨多个浏览器会话存在。
○ 如果 cookie 是一个持久性的 cookie,那么它其实就是浏览器相关的,特定目录下的一个文件。但直接查看这些文件可能会看到乱码或无法读取的内容,因为 cookie 文件通常以二进制或 sqlite 格式存储。一般我们查看,直接在浏览器对应的选项中直接查看即可。

 类似于下面这种方式:

由于 Cookie 是存储在客户端的,因此存在被篡改或窃取的风险。 

用途

○ 用户认证和会话管理(最重要)
○ 跟踪用户行为
○ 缓存用户偏好等
○ 比如在 chrome 浏览器下,可以直接访问:chrome://settings/cookies 

 

认识cookie

○ HTTP 存在一个报头选项:Set-Cookie, 可以用来进行给浏览器设置 Cookie值。
○ 在 HTTP 响应头中添加,客户端(如浏览器)获取并自行设置并保存Cookie。 

基本格式

et-Cookie: <name>=<value>
其中 <name> 是 Cookie 的名称,<value> 是 Cookie 的值。

 完整的格式

Set-Cookie: username=peter; expires=Thu, 18 Dec 2024 12:00:00
UTC; path=/; domain=.example.com; secure; HttpOnly

时间格式必须遵守 RFC 1123 标准,具体格式样例:Tue, 01 Jan 2030 12:34:56GMT 或者 UTC(推荐)。

关于时间解释
○ Tue: 星期二(星期几的缩写)
○ ,: 逗号分隔符
○ 01: 日期(两位数表示)
○ Jan: 一月(月份的缩写)
○ 2030: 年份(四位数)
○ 12:34:56: 时间(小时、分钟、秒)
○ GMT: 格林威治标准时间(时区缩写) 

可选属性的解释:

属性描述
usernamePeter这是 Cookie 的名称和值,标识用户
名为"peter"。
expiresThu, 18 Dec
2024 12:00:00
UTC
指定 Cookie 的过期时间。在这个例
子中,Cookie 将在 2024 年 12 月 18
日 12:00:00 UTC 后过期。
path

/

定义 Cookie 的作用范围。这里设置
为根路径/,意味着 Cookie
对.example.com 域名下的所有路径
都可用。
domain.example.com指定哪些域名可以接收这个
Cookie。点前缀(.)表示包括所有
子域名。
secure -指示 Cookie 只能通过 HTTPS 协议
发送,不能通过 HTTP 协议发送,增
加安全性。
HttpOnly-阻止客户端脚本(如 JavaScript)访
问此 Cookie,有助于防止跨站脚本
攻击(XSS)。

 注意事项
○ 每个 Cookie 属性都以分号(;)和空格( )分隔。
○ 名称和值之间使用等号(=)分隔。
○ 如果 Cookie 的名称或值包含特殊字符(如空格、分号、逗号等),则需要
进行 URL 编码。 

Cookie 的生命周期

○ 如果设置了 expires 属性,则 Cookie 将在指定的日期/时间后过期。
○ 如果没有设置 expires 属性,则 Cookie 默认为会话 Cookie,即当浏览器关闭时过期。 

单独使用 Cookie,有什么问题?
• 我们写入的是测试数据,如果写入的是用户的私密数据呢?比如,用户名密码,浏览痕迹等。
• 本质问题在于这些用户私密数据在浏览器(用户端)保存,非常容易被人盗取,更重要的是,除了被盗取,还有就是用户私密数据也就泄漏了。 

 引入 HTTP Session

定义
HTTP Session 是服务器用来跟踪用户与服务器交互期间用户状态的机制。由于 HTTP
协议是无状态的(每个请求都是独立的),因此服务器需要通过 Session 来记住用户
的信息。 

工作原理
当用户首次访问网站时,服务器会为用户创建一个唯一的 Session ID,并通过Cookie 将其发送到客户端。
客户端在之后的请求中会携带这个 Session ID,服务器通过 Session ID 来识别用户,从而获取用户的会话信息。
服务器通常会将 Session 信息存储在内存、数据库或缓存中。 

安全性:
与 Cookie 相似,由于 Session ID 是在客户端和服务器之间传递的,因此也存在被窃取的风险。
但是一般虽然 Cookie 被盗取了,但是用户只泄漏了一个 Session ID,私密信息暂时没有被泄露的风险
Session ID 便于服务端进行客户端有效性的管理,比如异地登录。
可以通过 HTTPS 和设置合适的 Cookie 属性(如 HttpOnly 和 Secure)来增强安全性。 

超时和失效:
Session 可以设置超时时间,当超过这个时间后,Session 会自动失效。
服务器也可以主动使 Session 失效,例如当用户登出时。 

用途:
用户认证和会话管理
存储用户的临时数据(如购物车内容)
实现分布式系统的会话共享(通过将会话数据存储在共享数据库或缓存中) 

 cookie与session配合

当用户登录Web应用时,系统会验证其身份(如用户名和密码)。
一旦用户通过验证,服务器会创建一个Session,并生成一个唯一的Session ID。
服务器将Session ID存储在Cookie中,并发送给用户的浏览器。
浏览器会将Cookie保存起来,并在之后对该服务器的每次请求中自动发送这个Cookie。
当用户注销或者Session超时,服务器会销毁对应的Session数据。
同时,浏览器中的相关Cookie也应当被清除,以确保用户的会话信息被完全移除。

 HTTPS 协议原理

HTTPS 是什么?

HTTPS 也是一个应用层协议. 是在 HTTP 协议的基础上引入了一个加密层.
HTTP 协议内容都是按照文本的方式明文传输的. 这就导致在传输过程中出现一些被篡改的情况.

什么是加密

加密就是把 明文 (要传输的信息)进行一系列变换, 生成 密文 .
解密就是把 密文 再进行一系列变换, 还原成 明文 .
在这个加密和解密的过程中, 往往需要一个或者多个中间的数据, 辅助进行这个过程, 这样的数据称为 密钥 (正确发音 yue 四声, 不过大家平时都读作 yao 四声) . 

83 版 <<⽕烧圆明园>> , 有人要谋反干掉慈禧太后. 恭亲王奕䜣给慈禧递的折子. 折子内容只是扯一扯家常, 套上一张挖了洞的纸就能看到真实要表达的意思.
明文: "当心肃顺, 端华, 戴恒" (这几个人都是当时的权臣, 后来被慈禧一锅端).
密文: 奏折全文
密钥: 挖了洞的纸. 

 

加密解密到如今已经发展成一个独⽴的学科: 密码学.
而密码学的奠基人, 也正是计算机科学的祖师爷之一, 艾伦·⻨席森·图灵 

为什么要加密 

臭名昭著的 "运营商劫持"
下载一个 天天动听
未被劫持的效果, 点击下载按钮, 就会弹出天天动听的下载链接. 已被劫持的效果, 点击下载按钮, 就会弹出 QQ 浏览器的下载链接

由于我们通过网络传输的任何的数据包都会经过运营商的网络设备(路由器, 交换机等),那么运营商的网络设备就可以解析出你传输的数据内容, 并进行篡改.

点击 "下载按钮", 其实就是在给服务器发送了一个 HTTP 请求, 获取到的 HTTP 响应其实就包含了该 APP 的下载链接. 运营商劫持之后, 就发现这个请求是要下载天天动听,那么就自动的把交给用户的响应给篡改成 "QQ 浏览器" 的下载地址了. 

 所以:因为 http 的内容是明文传输的,明文数据会经过路由器、wifi 热点、通信服务运营商、代理服务器等多个物理节点,如果信息在传输过程中被劫持,传输的内容就完全暴露了。劫持者还可以篡改传输的信息且不被双方察觉,这就是 中间人攻击 ,所以我们才需要对信息进行加密。

在互联网上, 明文传输是比较危险的事情!!!
HTTPS 就是在 HTTP 的基础上进行了加密, 进一步的来保证用户的信息安全!!!

常见的加密方式

对称加密
• 采用单钥密码系统的加密方法,同一个密钥可以同时用作信息的加密和解密,这种加密方法称为对称加密,也称为单密钥加密,特征:加密和解密所用的密钥是相同的 
• 常见对称加密算法(了解):DES、3DES、AES、TDEA、Blowfish、RC2 等
• 特点:算法公开、计算量⼩、加密速度快、加密效率⾼
对称加密其实就是通过同一个 "密钥" , 把明文加密成密文, 并且也能把密文解密成明文.

一个简单的对称加密, 按位异或
假设 明文 a = 1234, 密钥 key = 8888
则加密 a ^ key 得到的密文 b 为 9834.
然后针对密文 9834 再次进行运算 b ^ key, 得到的就是原来的明文 1234.
(对于字符串的对称加密也是同理, 每一个字符都可以表⽰成一个数字)
当然, 按位异或只是最简单的对称加密. HTTPS 中并不是使用按位异或. 

非对称加密 

 • 需要两个密钥来进行加密和解密,这两个密钥是公开密钥(public key,简称公钥)和私有密钥(private key,简称私钥)。
• 常见非对称加密算法(了解):RSA,DSA,ECDSA
• 特点:算法强度复杂、安全性依赖于算法与密钥但是由于其算法复杂,而使得加密解密速度没有对称加密解密的速度快。
非对称加密要用到两个密钥, 一个叫做 "公钥", 一个叫做 "私钥".公钥和私钥是配对的. 最大的缺点就是运算速度非常慢,比对称加密要慢很多.
• 通过公钥对明文加密, 变成密文
• 通过私钥对密文解密, 变成明文也可以反着用
• 通过私钥对明文加密, 变成密文
• 通过公钥对密文解密, 变成明文

非对称加密的数学原理比较复杂, 涉及到一些 数论 相关的知识. 这里举一个简单的
生活上的例子.
A 要给 B 一些重要的文件, 但是 B 可能不在. 于是 A 和 B 提前做出约定:
B 说: 我桌子上有个盒子, 然后我给你一把锁, 你把文件放盒子里用锁锁上, 然后我回
头拿着钥匙来开锁取文件.

在这个场景中, 这把锁就相当于公钥, 钥匙就是私钥. 公钥给谁都行(不怕泄露), 但是
私钥只有 B 自己持有. 持有私钥的人才能解密. 

数据摘要 && 数据指纹 

• 数字指纹(数据摘要),其基本原理是利用单向散列函数(Hash 函数)对信息进行运算,生成一串固定⻓度的数字摘要。数字指纹并不是一种加密机制,但可以用来判断数据有没有被篡改。
• 摘要常见算法:有 MD5、SHA1、SHA256、SHA512 等,算法把无限的映射成有限,因此可能会有碰撞(两个不同的信息,算出的摘要相同,但是概率非常低)
• 摘要特征:和加密算法的区别是,摘要严格意义不是加密,因为没有解密,只不过从摘要很难反推原信息,通常用来进行数据对比 

 数字签名:摘要经过加密,就得到数字签名(后面细说) 

HTTPS 的工作过程探究 

既然要保证数据安全, 就需要进行 "加密".
网络传输中不再直接传输明文了, 而是加密之后的 "密文".
加密的方式有很多, 但是整体可以分成两大类: 对称加密 和 非对称加密 

方案 1 - 只使用对称加密 

如果通信双方都各自持有同一个密钥 X,且没有别人知道,这两方的通信安全当然是可以被保证的(除非密钥被破解) 

 引入对称加密之后, 即使数据被截获, 由于黑客不知道密钥是啥, 因此就无法进行解密,也就不知道请求的真实内容是啥了.
但事情没这么简单. 服务器同一时刻其实是给很多客户端提供服务的. 这么多客户端, 每个人用的秘钥都必须是不同的(如果是相同那密钥就太容易扩散了, 黑客就也能拿到了).因此服务器就需要维护每个客户端和每个密钥之间的关联关系, 这也是个很⿇烦的事情。

 比较理想的做法, 就是能在客户端和服务器建⽴连接的时候, 双方协商确定这次的密钥是啥

 但是如果直接把密钥明文传输, 那么黑客也就能获得密钥了~~ 此时后续的加密操作就形同虚设了

因此密钥的传输也必须加密传输!
但是要想对密钥进行对称加密, 就仍然需要先协商确定一个 "密钥的密钥". 这就成了 "先
有鸡还是先有蛋" 的问题了. 此时密钥的传输再用对称加密就行不通了. 

方案 2 - 只使用非对称加密 

鉴于非对称加密的机制,如果服务器先把公钥以明文方式传输给浏览器,之后浏览器向服务器传数据前都先用这个公钥加密好再传,从客户端到服务器信道似乎是安全的(有安全问题),因为只有服务器有相应的私钥能解开公钥加密的数据。但是服务器到浏览器的这条路怎么保障安全?
如果服务器用它的私钥加密数据传给浏览器,那么浏览器用公钥可以解密它,而这个公钥是一开始通过明文传输给浏览器的,若这个公钥被中间人劫持到了,那他也能用该公钥解密服务器传来的信息了。 

方案 3 - 双方都使用非对称加密 

1. 服务端拥有公钥 S 与对应的私钥 S',客户端拥有公钥 C 与对应的私钥 C'
2. 客户和服务端交换公钥
3. 客户端给服务端发信息:先用 S 对数据加密,再发送,只能由服务器解密,因为只有服务器有私钥 S'
4. 服务端给客户端发信息:先用 C 对数据加密,在发送,只能由客户端解密,因为只有客户端有私钥 C' 

这样貌似也行啊,但是
• 效率太低
• 依旧有安全问题 

方案 4 - 非对称加密 + 对称加密 

先解决效率问题 • 服务端具有非对称公钥 S 和私钥 S'
• 客户端发起 https 请求,获取服务端公钥 S
• 客户端在本地生成对称密钥 C, 通过公钥 S 加密, 发送给服务器.
• 由于中间的网络设备没有私钥, 即使截获了数据, 也无法还原出内部的原文, 也就无法获取到对称密钥(真的吗?)
• 服务器通过私钥 S'解密, 还原出客户端发送的对称密钥 C. 并且使用这个对称密钥加密给客户端返回的响应数据.
• 后续客户端和服务器的通信都只用对称加密即可. 由于该密钥只有客户端和服务器两个主机知道, 其他主机/设备不知道密钥即使截获数据也没有意义.

由于对称加密的效率比非对称加密⾼很多, 因此只是在开始阶段协商密钥的时候使用非对称加密, 后 续的传输仍然使用对称加密. 

虽然上面已经比较接近答案了,但是依旧有安全问题
方案 2,方案 3,方案 4 都存在一个问题,如果最开始,中间人就已经开始攻击了呢? 

中间人攻击 - 针对上面的场景 

• Man-in-the-MiddleAttack,简称“MITM 攻击”
确实,在方案 2/3/4 中,客户端获取到公钥 S 之后,对客户端形成的对称秘钥 X 用服务端给客户端的公钥 S 进行加密,中间人即使窃取到了数据,此时中间人确实无法解出客户端形成的密钥 X,因为只有服务器有私钥 S'
但是中间人的攻击,如果在最开始握手协商的时候就进行了,那就不一定了,假设hacker 已经成功成为中间人 

1. 服务器具有非对称加密算法的公钥 S,私钥 S'
2. 中间人具有非对称加密算法的公钥 M,私钥 M'
3. 客户端向服务器发起请求,服务器明文传送公钥 S 给客户端
4. 中间人劫持数据报文,提取公钥 S 并保存好,然后将被劫持报文中的公钥 S 替换成为自己的公钥 M,并将伪造报文发给客户端
5. 客户端收到报文,提取公钥 M(自己当然不知道公钥被更换过了),自己形成对称秘钥 X,用公钥 M 加密 X,形成报文发送给服务器
6. 中间人劫持后,直接用自己的私钥 M'进行解密,得到通信秘钥 X,再用曾经保存的服务端公钥 S 加密后,将报文推送给服务器
7. 服务器拿到报文,用自己的私钥 S'解密,得到通信秘钥 X
8. 双方开始采用 X 进行对称加密,进行通信。但是一切都在中间人的掌握中,劫持数据,进行窃听甚至修改,都是可以的
上面的攻击方案,同样适用于方案 2,方案 3
问题本质出在哪里了呢?客户端无法确定收到的含有公钥的数据报文,就是⽬标服务器发送过来的! 

引入证书 

CA 认证
服务端在使用 HTTPS 前,需要向 CA 机构申领一份数字证书,数字证书里含有证书申请者信息、公钥信息等。服务器把证书传输给浏览器,浏览器从证书里获取公钥就行了,证书就如身份证,证明服务端公钥的权威性 

 

基本说明:
https://baike.baidu.com/item/CA%E8%AE%A4%E8%AF%81/6471579?fr=aladdin
这个 证书 可以理解成是一个结构化的字符串, 里面包含了以下信息:
• 证书发布机构
• 证书有效期
• 公钥
• 证书所有者
• 签名
• ......
需要注意的是:申请证书的时候,需要在特定平台生成查,会同时生成一对⼉密钥对⼉,即公钥和私钥。这对密钥对⼉就是用来在网络通信中进行明文加密以及数字签名的。
其中公钥会随着 CSR 文件,一起发给 CA 进行权威认证,私钥服务端自己保留,用来后续进行通信(其实主要就是用来交换对称秘钥) 

可以使用在线生成 CSR 和私钥:https://myssl.com/csr_create.html形成 CSR 之后,后续就是向 CA 进行申请认证,不过一般认证过程很繁琐,网络各种提供证书申请的服务商,一般真的需要,直接找平台解决就行 

理解数据签名 

签名的形成是基于非对称加密算法的,注意,⽬前暂时和 https 没有关系,不要和https 中的公钥私钥搞混了 

 当服务端申请 CA 证书的时候,CA 机构会对该服务端进行审核,并专⻔为该网站形成数字签名,过程如下:
1. CA 机构拥有非对称加密的私钥 A 和公钥 A'
2. CA 机构对服务端申请的证书明文数据进行 hash,形成数据摘要
3. 然后对数据摘要用 CA 私钥 A'加密,得到数字签名 S服务端申请的证书明文和数字签名 S 共同组成了数字证书,这样一份数字证书就可以颁发给服务端了

方案 5 - 非对称加密 + 对称加密 + 证书认证 

在客户端和服务器刚一建⽴连接的时候, 服务器给客户端返回一个 证书,证书包含了之前服务端的公钥, 也包含了网站的身份信息. 

 客户端进行认证

当客户端获取到这个证书之后, 会对证书进行校验(防止证书是伪造的).
• 判定证书的有效期是否过期
• 判定证书的发布机构是否受信任(操作系统中已内置的受信任的证书发布机构).
• 验证证书是否被篡改: 从系统中拿到该证书发布机构的公钥, 对签名解密, 得到一个 hash 值(称为数据摘要), 设为 hash1. 然后计算整个证书的 hash 值, 设为 hash2. 对比 hash1 和 hash2 是否相等. 如果相等, 则说明证书是没有被篡改过的. 

中间人有没有可能篡改该证书? 

• 中间人篡改了证书的明文
• 由于他没有 CA 机构的私钥,所以无法 hash 之后用私钥加密形成签名,那么也就没法办法对篡改后的证书形成匹配的签名
• 如果强行篡改,客户端收到该证书后会发现明文和签名解密后的值不一致,则说明证书已被篡改,证书不可信,从而终止向服务器传输信息,防止信息泄露给中间人 

中间人整个掉包证书?
• 因为中间人没有 CA 私钥,所以无法制作假的证书(为什么?)
• 所以中间人只能向 CA 申请真证书,然后用自己申请的证书进行掉包
• 这个确实能做到证书的整体掉包,但是别忘记,证书明文中包含了域名等服务端认证信息,如果整体掉包,客户端依旧能够识别出来。
• 永远记住:中间人没有 CA 私钥,所以对任何证书都无法进行合法修改,包括自己的。

 完整流程

左侧都是客户端做的事情, 右侧都是服务器做的事情 


以上就是应用层http的全部内容,感谢大家观看!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

W…Y

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值