3.5 首部

  • HTTP 首部字段向请求和响应报文中添加了一些附加信息。本质上来说,它们只是一些名 / 值对的列表。
  • 首部分类:
    • 通用首部:既可以出现在请求报文中,也可以出现在响应报文中。可以在客户端、服务器和其他应用程序之间提供一些非常有用的通用功能。
    • 请求首部:提供更多有关请求的信息。为服务器提供信息。
    • 响应首部:提供更多有关响应的信息。为客户端提供信息。
    • 实体首部:描述主体的长度和内容,或者资源自身。
    • 扩展首部:规范中没有定义的新首部。

1. 通用首部

  • 通用首部:提供了与报文相关的最基本的信息。例如,不管是构建请求报文还是响应报文,创建报文的日期和时间都是同一个意思,因此提供这类信息的首部对这两种类型的报文来说也是通用的。

1. 通用的信息性首部

首部描述
Connection允许客户端和服务器指定与请求 / 响应连接有关的选项。
Date提供日期和时间标志,说明报文是什么时间创建的。
MIME-Version给出了发送端使用的 MIME 版本。
Trailer如果报文采用了分块传输编码(chunked transfe encoding)方式,就可以用这个首部列出位于报文拖挂(trailer)部分的首部集合。
Transfer-Encoding告知接收端为了保证报文的可靠传输,对报文采用了什么编码方式。
Update给出了发送端可能想要“升级”使用的新版本或协议。
Via显示了报文经过的中间节点(代理、网关)。

2. 通用缓存首部

HTTP/1.0 引入了第一个允许 HTTP 应用程序缓存对象本地副本的首部,这样就不需要总是直接从源端服务器获取了。最新的 HTTP 版本有非常丰富的缓存参数集。这里列出基本的缓存首部:

首部描述
Cache-Control用于随报文传送缓存指示。
Pragma另一种随报文传送指示的方式,但并不专用于缓存。
从技术角度来看,Pragma 是一种请求首部。从未被指定用于响应首部。由于经常被错误地用于响应首部,很多客户端和代理都会将 Pragma 解释为响应首部,但其确切语义并未得到很好地定义。任何情况下 Cache-Control 的使用都优于 Pragma。

2. 请求首部

  • 请求首部:是只在请求报文中有意义的首部。用于说明是谁或什么在发送请求、请求源自何处,或者客户端的喜好及能力。服务器可以根据请求首部给出的客户端信息,试着为客户端提供更好的响应。

1. 请求的信息性首部

首部描述
Client-IP8提供了运行客户端的机器的 IP 地址。
RFC 2616 没有定义 Client-IP 和 UA-* 首部,但很多 HTTP 客户端应用程序都实现了这两个首部。
From提供了客户端用户的 E-mail 地址。使用 RFC 822 E-mail 地址格式。
Host给出了接收请求的服务器的主机名和端口号。
Referer提供了包含当前请求 URI 的文档的 URL。
UA-Color提供了与客户端显示器的显示颜色有关的信息。
UA-CPU给出了客户端 CPU 的类型或制造商。
尽管有些客户端实现了 UA-* 首部,但我们认为 UA-* 首部是有副作用的。不应该将内容,尤其是HTML,局限于特定的客户端配置。
UA-Disp提供了与客户端显示器(屏幕)能力有关的信息。
UA-OS给出了运行在客户端机器上的操作系统名称及版本。
UA-Pixels提供了客户端显示器的像素信息。
User-Agent将发起请求的应用程序名称告知服务器。

2. Accept首部

  • Accept 首部为客户端提供了一种将其喜好和能力告知服务器的方式,包括它们想要什么,可以使用什么,以及最重要的,它们不想要什么。这样,服务器就可以根据这些额外信息,对要发送的内容做出更明智的决定。
  • Accept 首部会使连接的两端都受益。客户端会得到它们想要的内容,服务器则不会浪费其时间和带宽来发送客户端无法使用的东西。
首部描述
Accept告诉服务器能够发送哪些媒体类型。
Accept-Charset告诉服务器能够发送哪些字符集。
Accept-Encoding告诉服务器能够发送哪些编码方式。
Accept-Language告诉服务器能够发送哪些语言。
TE告诉服务器可以使用哪些扩展传输编码。

3. 条件请求首部

  • 有时客户端希望为请求加上某些限制就可以使用条件请求首部。
首部描述
Expect允许客户端列出某请求所要求的服务器行为。
If-Match如果实体标记与文档当前的实体标记相匹配,就获取这份文档。
If-Modified-Since若在某个指定的日期之后资源没有被修改过,就限制这个请求。
If-None-Match如果提供的实体标记与当前文档的实体标记不相符,就获取文档。
If-Range允许对文档的某个范围进行条件请求。
If-Unmodified-Since若在某个指定日期之后资源被修改过,就限制这个请求。
Range如果服务器支持范围请求,就请求资源的指定范围。

4. 安全请求首部

  • HTTP 本身就支持一种简单的机制,可以对请求进行质询 / 响应认证。这种机制要求客户端在获取特定的资源之前,先对自身进行认证,这样就可以使事务稍微安全一些。
  • 部分安全请求首部:
首部描述
Authorization包含了客户端提供给服务器的,以便对其自身进行认证的数据。
Cookie客户端用它向服务器传送一个令牌——它并不是真正的安全首部,但确实隐含了安全功能。RFC 2616 并没有定义 Cookie 首部。
Cookie2用来说明请求端支持的 cookie 版本。

5. 代理请求首部

  • 随着因特网上代理的普遍应用,人们定义了几个首部来协助其更好地工作。
  • 部分代理请求首部:
首部描述
Max-Forward在通往源端服务器的路径上,将请求转发给其他代理或网关的最大次数——与 TRACE 方法一同使用。
Proxy-Authorization与 Authorization 首部相同,但这个首部是在与代理进行认证时使用的。
Proxy-Connection与 Connection 首部相同,但这个首部是在与代理建立连接时使用的。

3. 响应首部

  • 响应首部:为客户端提供了一些额外信息,比如谁在发送响应、响应者的功能,甚至与响应相关的一些特殊指令。这些首部有助于客户端处理响应,并在将来发起更好的请求。

1. 部分响应的信息首部

首部描述
Age(从最初创建开始)响应持续时间。(暗示响应是通过中间节点,很可能是从代理的缓存传送过来的。)
Public服务器为其资源支持的请求方法列表。Public 首部是在 RFC 2068 中定义的,但在最新的 HTTP 定义(RFC 2616)中并没有出现。
Retry-After如果资源不可用的话,在此日期或时间重试。
Server服务器应用程序软件的名称和版本。
Title对 HTML 文档来说,就是 HTML 文档的源端给出的标题。RFC 2616 并没有定义 Title 首部。
Warning比原因短语中更详细一些的警告报文。

2. 协商响应首部

  • 如果资源有多种表示方法,HTTP/1.1 可以为服务器和客户端提供对资源进行协商的能力。
  • 部分协商响应首部:
首部描述
Accept-Ranges对此资源来说,服务器可接受的范围类型。
Vary服务器查看的其他首部的列表,可能会使响应发生变化;也就是说,这是一个首部列表,服务器会根据这些首部的内容挑选出最适合的资源版本发送给客户端。

3. 安全响应首部

  • 我们已经看到过安全请求首部了,本质上这里说的就是 HTTP 的质询 / 响应认证机制的响应侧。
  • 部分安全响应首部:
首部描述
Proxy-Authenticate来自代理的对客户端的质询列表。
Set-Cookie不是真正的安全首部,但隐含有安全功能;可以在客户端设置一个令牌,以便服务器对客户端进行标识。(Set-Cookie 和 Set-Cookie2 都是扩展首部)
Set-Cookie2与 Set-Cookie 类似,RFC 2965 Cookie 定义。
WWW-Authenticate来自服务器的对客户端的质询列表

4. 实体首部

  • 实体首部:提供了有关实体及其内容的大量信息,从有关对象类型的信息,到能够对资源使用的各种有效的请求方法。总之,实体首部可以告知报文的接收者它在对什么进行处理。

1. 实体的信息性首部

首部描述
Allow列出了可以对此实体执行的请求方法。
Location告知客户端实体实际上位于何处;用于将接收端定向到资源的(可能是新的)位置(URL)上去。

2. 内容首部

  • 内容首部提供了与实体内容有关的特定信息,说明了其类型、尺寸以及处理它所需的其他有用信息。
首部描述
Content-Base解析主体中的相对 URL 时使用的基础 URL。RFC 2616 中没有定义 Content-Base 首部。
Content-Encoding对主体执行的任意编码方式。
Content-Language理解主体时最适宜使用的自然语言。
Content-Length主体的长度或尺寸。
Content-Location资源实际所处的位置。
Content-MD5主体的 MD5 校验和。
Content-Range在整个资源中此实体表示的字节范围。
Content-Type这个主体的对象类型。

3. 实体缓存首部

  • 实体的缓存首部提供了与被缓存实体有关的信息。
  • 部分实体缓存首部:
首部描述
ETag与此实体相关的实体标记。实体标记本质上来说就是某个特定资源版本的标识符。
Expires实体不再有效,要从原始的源端再次获取此实体的日期和时间。
Last-Modified这个实体最后一次被修改的日期和时间。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值