OkHttp(二)—— 拦截器

本篇文章我们将介绍 OkHttp 的拦截器,拦截器是 OkHttp 的核心,正是因为 OkHttp 内置的五大拦截器各司其职,才使得使用者可以轻松的发送网络请求并收到响应。这五大拦截器分别是:

  1. 重定向与重试拦截器:负责判断是否需要重新发起整个请求
  2. 桥接拦截器:补全请求,并对响应进行额外处理
  3. 缓存拦截器:请求前查询缓存,获得响应并判断是否需要缓存
  4. 连接拦截器:与服务器完成 TCP 连接
  5. 请求服务拦截器:与服务器通信,封装请求数据、解析响应数据(如:HTTP报文)

这些拦截器是通过责任链串联起来的。所以我们先来看看 OkHttp 是如何应用责任链的。

一、OkHttp 的责任链

在上一篇讲分发器时我们能看到,RealCall 不论是被同步执行,还是被异步执行,都调用到了一个使用责任链的方法 getResponseWithInterceptorChain(),该方法会将所有的拦截器都添加到 interceptors 这个列表中:

	Response getResponseWithInterceptorChain() throws IOException {
        // Build a full stack of interceptors.
        List<Interceptor> interceptors = new ArrayList<>();
        // 添加保存在 OkHttpClient 中的自定义拦截器
        interceptors.addAll(client.interceptors());
        // 添加一系列 OkHttp 内置的拦截器
        interceptors.add(retryAndFollowUpInterceptor);
        interceptors.add(new BridgeInterceptor(client.cookieJar()));
        interceptors.add(new CacheInterceptor(client.internalCache()));
        interceptors.add(new ConnectInterceptor(client));
        if (!forWebSocket) {
        	// 添加在 OkHttpClient 中自定义的网络拦截器
            interceptors.addAll(client.networkInterceptors());
        }
        // 添加 OkHttp 内置的请求服务拦截器
        interceptors.add(new CallServerInterceptor(forWebSocket));

		// 创建一个责任链对象,传了 interceptors 和 originalRequest,后者表示原始请求
        Interceptor.Chain chain = new RealInterceptorChain(interceptors, null, null, null, 0,
                originalRequest, this, eventListener, client.connectTimeoutMillis(),
                client.readTimeoutMillis(), client.writeTimeoutMillis());

		// 执行责任链,获得响应体并返回
        return chain.proceed(originalRequest);
    }

我们先不考虑 OkHttpClient 中自定义的拦截器,在内置的五大拦截器被添加到 interceptors 后,创建了一个 RealInterceptorChain 对象,并调用 RealInterceptorChain 的 proceed():

	// 责任链上的第几个拦截器
	private final int index;
	// 当前拦截器被调用的次数
	private int calls;
	
	public Response proceed(Request request, StreamAllocation streamAllocation, HttpCodec httpCodec,
                            RealConnection connection) throws IOException {
        if (index >= interceptors.size()) throw new AssertionError();

		// 调用次数+1
        calls++;

        ...

        // Call the next interceptor in the chain.
        // 在 getResponseWithInterceptorChain() 创建 RealInterceptorChain 时,index 传的是 0
        RealInterceptorChain next = new RealInterceptorChain(interceptors, streamAllocation, httpCodec,
                connection, index + 1, request, call, eventListener, connectTimeout, readTimeout,
                writeTimeout);
        // 由于 index 是 0,所以取出的是第一个拦截器 RetryAndFollowUpInterceptor
        Interceptor interceptor = interceptors.get(index);
        // 调用下一个拦截器,并将新产生的 RealInterceptorChain 对象传进去
        Response response = interceptor.intercept(next);

        ...

        return response;
    }

来到 RetryAndFollowUpInterceptor 的 intercept(),我们先只看责任链流程:

	@Override
    public Response intercept(Chain chain) throws IOException {
    	// 没对 Request 进行处理
        Request request = chain.request();
        RealInterceptorChain realChain = (RealInterceptorChain) chain;
        Call call = realChain.call();

        Response priorResponse = null;
        while (true) {
            ...

            Response response;
            try {
            	// 执行责任链,得到 Response
                response = realChain.proceed(request, streamAllocation, null, null);
            } catch (RouteException e) {
                ...
            } finally {
                ...
            }

            // 对 Response 做处理
            if (priorResponse != null) {
                response = response.newBuilder()
                        .priorResponse(priorResponse.newBuilder()
                                .body(null)
                                .build())
                        .build();
            }

            Request followUp = followUpRequest(response, streamAllocation.route());
			// 如果不做重定向就返回 response
            if (followUp == null) {
                if (!forWebSocket) {
                    streamAllocation.release();
                }
                return response;
            }

            ...
        }
    }

我们就先看个大概,拦截器在做事的时候一般会有如下几步:

  1. 从参数的责任链对象中取出 Request,并根据自身功能需求对 Request 做出修改。修改 Request 并不是所有拦截器一定会做的,像上面的 RetryAndFollowUpInterceptor 由于自身并没有修改 Request 的需求,所以它就没改
  2. 调用 RealInterceptorChain 的 proceed() 让责任链向下执行,在 proceed() 内会取出 interceptors 集合中的下一个拦截器,并调用该拦截器的 intercept(),这样就会回到第 1 步,这是个递归过程
  3. 递归到最后一个拦截器执行完 intercept() 得到 Response,在将 Response 返回给上一层调用者之前,会根据自身需要,对 Response 的内容做出修改,这个修改同样也不是每个拦截器必须要做的

以上是 OkHttp 责任链的执行流程,那么从整体结构上来看,责任链的结构如下:


下面就来看一下内置的五大拦截器,注意后面叙述的时候我们会默认没有向 interceptors 集合中添加自定义的拦截器,interceptors 中只有五个内置拦截器。

二、重试与重定向拦截器

RetryAndFollowUpInterceptor,是整个责任链中的第一个,这意味着它会是首个接触到 Request 与最后接收到 Response 的拦截器,本拦截器的主要功能就是判断是否需要重试与重定向,这两个功能在 intercept() 内的 while 循环中完成:

	@Override
    public Response intercept(Interceptor.Chain chain) throws IOException {
    	// 从责任链上拿到 Request,没有对其进行修改
        Request request = chain.request();
        RealInterceptorChain realChain = (RealInterceptorChain) chain;
        Call call = realChain.call();
        EventListener eventListener = realChain.eventListener();

        StreamAllocation streamAllocation = new StreamAllocation(client.connectionPool(),
                createAddress(request.url()), call, eventListener, callStackTrace);
        this.streamAllocation = streamAllocation;

		// 重定向次数
        int followUpCount = 0;
        // 重定向时会用到,用来记录上一次响应
        Response priorResponse = null;
        while (true) {
            if (canceled) {
                streamAllocation.release();
                throw new IOException("Canceled");
            }

            Response response;
            boolean releaseConnection = true;
            // 1.重试
            try {
            	// 把请求交给责任链上的下一个拦截器,注意如果在 proceed() 内发生了异常,
            	// 那么 releaseConnection 就还是初始值 true
                response = realChain.proceed(request, streamAllocation, null, null);
                releaseConnection = false;
            } catch (RouteException e) {
                // 路由异常,连接未成功,请求还没有发出去,用 recover() 来判断是否进行重试
                if (!recover(e.getLastConnectException(), streamAllocation, false, request)) {
                    throw e.getLastConnectException();
                }
                releaseConnection = false;
                // 走到这里说明 recover() 返回 true,表示可以重试,那么 if 未命中不会抛出异常,
                // continue 执行下一次 while 循环,重新执行整个责任链
                continue;
            } catch (IOException e) {
                // 请求已发出,但是和服务器通信失败了,比如 Socket 读写数据时连接断开
                // Http2 才会抛出 ConnectionShutdownException,所以对于 Http1 来说,requestSendStarted 一定是 true
                boolean requestSendStarted = !(e instanceof ConnectionShutdownException);
                if (!recover(e, streamAllocation, requestSendStarted, request)) throw e;
                releaseConnection = false;
                continue;
            } finally {
                // 如果不是以上两种异常,不能进行重试,就释放所有资源
                if (releaseConnection) {
                    streamAllocation.streamFailed(null);
                    streamAllocation.release();
                }
            }

            // Attach the prior response if it exists. Such responses never have a body.
            if (priorResponse != null) {
                response = response.newBuilder()
                        .priorResponse(priorResponse.newBuilder()
                                .body(null)
                                .build())
                        .build();
            }

			// 2.重定向。如果不需要做重定向,那么 followUp 就是 null
            Request followUp = followUpRequest(response, streamAllocation.route());

			// 不需要重定向,直接将 response 返回
            if (followUp == null) {
                if (!forWebSocket) {
                    streamAllocation.release();
                }
                return response;
            }

			// 能执行到这说明上面没返回,那就是需要做重定向了
            closeQuietly(response.body());

			// 重定向次数不能超过 MAX_FOLLOW_UPS(默认为 20),20 是参考了其它浏览器的设置,
			// 如 Chrome 21 次,Firefox 20 次,Safari 16 次,Http1.0 推荐 5 次
            if (++followUpCount > MAX_FOLLOW_UPS) {
                streamAllocation.release();
                throw new ProtocolException("Too many follow-up requests: " + followUpCount);
            }

            if (followUp.body() instanceof UnrepeatableRequestBody) {
                streamAllocation.release();
                throw new HttpRetryException("Cannot retry streamed HTTP body", response.code());
            }

			// 判断是否可以复用同一连接
            if (!sameConnection(response, followUp.url())) {
                streamAllocation.release();
                streamAllocation = new StreamAllocation(client.connectionPool(),
                        createAddress(followUp.url()), call, eventListener, callStackTrace);
                this.streamAllocation = streamAllocation;
            } else if (streamAllocation.codec() != null) {
                throw new IllegalStateException("Closing the body of " + response
                        + " didn't close its backing stream. Bad interceptor?");
            }

			// 下一次循环时要发送的 request 其实是 followUp,而本次得到的 response 将是下一次循环中的 priorResponse
            request = followUp;
            priorResponse = response;
        }
    }

2.1 重试

重试逻辑其实就是在 while 循环的 try-catch-finally 代码块中。只有在发生了 RouteException 和 IOException 时,才有可能进行重试,决定是否要进行重试的是 recover():

	private boolean recover(IOException e, StreamAllocation streamAllocation,
                            boolean requestSendStarted, Request userRequest) {
        streamAllocation.streamFailed(e);

        // OkHttpClient 客户端配置了不允许重试
        if (!client.retryOnConnectionFailure()) return false;

        // Request 自己配置了不允许重试
        if (requestSendStarted && userRequest.body() instanceof UnrepeatableRequestBody)
            return false;

        // 致命异常不允许重试
        if (!isRecoverable(e, requestSendStarted)) return false;

        // 没有更多路线不允许重试
        if (!streamAllocation.hasMoreRoutes()) return false;

        return true;
    }

recover() 内用 4 个 if 条件判断是否能进行重试,只要满足重试条件,会在 intercept() 的 while 无限循环中一直帮我们重试,下面来看这 4 个条件的具体内容:

客户端是否允许重试

retryOnConnectionFailure() 获取的是 OkHttpClient 的 retryOnConnectionFailure 属性:

	public boolean retryOnConnectionFailure() {
    	return retryOnConnectionFailure;
    }

该属性会决定由当前 OkHttpClient 发出的所有 Request 是否允许进行重试,可以通过 OkHttpClient.Builder 的 retryOnConnectionFailure() 对该属性进行设置,默认值为 true,表示允许客户端进行重试。

单个 Request 是否允许重试

配置某一个 Request 是否进行重试,取决于 requestSendStarted 的值以及 RequestBody 是否是 UnrepeatableRequestBody 接口的实现类。

回看 intercept() 内抛出 RouteException 和 IOException 的两个 catch 代码块:

	@Override
    public Response intercept(Interceptor.Chain chain) throws IOException {
    	...
    	while (true) {
    		...
    		try {
                response = realChain.proceed(request, streamAllocation, null, null);
                releaseConnection = false;
            } catch (RouteException e) {
                if (!recover(e.getLastConnectException(), streamAllocation, false, request)) {
                    throw e.getLastConnectException();
                }
                releaseConnection = false;
                continue;
            } catch (IOException e) {
                // 请求已发出,但是和服务器通信失败了,比如 Socket 读写数据时连接断开
                // Http2 才会抛出 ConnectionShutdownException,所以对于 Http1 来说,requestSendStarted 一定是 true
                boolean requestSendStarted = !(e instanceof ConnectionShutdownException);
                if (!recover(e, streamAllocation, requestSendStarted, request)) throw e;
                releaseConnection = false;
                continue;
            } ...
    	}
    	...
    }

发生 RouteException 调用 recover() 时,requestSendStarted 直接传了 false,发生 IOException 时,requestSendStarted 只有在抛出的异常是 ConnectionShutdownException 的实例时才为 false,而由于 Http2 才会抛出 ConnectionShutdownException,所以对于 Http1 来说,requestSendStarted 一定是 true。

至于第二个条件中的 UnrepeatableRequestBody 实际上是一个空接口:

public interface UnrepeatableRequestBody {
}

只起到标记作用,如果你并不想让某个 Request 进行重试,可以自定义一个 RequestBody 实现该接口:

	class MyRequestBody extends RequestBody implements UnrepeatableRequestBody {

        @Nullable
        @Override
        public MediaType contentType() {
            return null;
        }

        @Override
        public void writeTo(BufferedSink sink) throws IOException {

        }
    }

然后使用这个 RequestBody 构造 Request:

	Request request = new Request.Builder()
                .url("https://www.xxx.com")
                .post(new MyRequestBody())
                .build();

这样这个 Request 就不会进行重试。

是否是可重试的异常

某些异常发生时,是不允许重试的,因为这些异常是真的因为客户端或服务端的代码有问题,即便重试无数次得到的也都是错误结果;而有些异常可能是由于网络波动导致异常发生,换个路线重试可能就会解决问题。因此需要 isRecoverable() 判断,哪些异常可以重试,哪些不可以:

	private boolean isRecoverable(IOException e, boolean requestSendStarted) {
        // 发生协议异常,不会重试
        if (e instanceof ProtocolException) {
            return false;
        }

        // 一般的 IO 中断异常不会重试,但是如果是 Socket 超时异常,可以尝试其它路线(如果有)
        if (e instanceof InterruptedIOException) {
        	// 有可能是网络波动造成了 Socket 的连接超时,可以使用不同的路线进行重试
            return e instanceof SocketTimeoutException && !requestSendStarted;
        }

        // SSL 握手异常,如果是证书出现问题,不能重试
        if (e instanceof SSLHandshakeException) {
            // 由 X509TrustManager 抛出的 CertificateException,不重试
            if (e.getCause() instanceof CertificateException) {
                return false;
            }
        }
        // SSL 未授权异常(证书校验失败,不匹配或过期等问题)不重试
        if (e instanceof SSLPeerUnverifiedException) {
            return false;
        }

        return true;
    }

我们主要来解释一下协议异常。ProtocolException 是一种 IOException,比如 OkHttp 的 CallServerInterceptor 在其处理责任链的 intercept() 内就抛出了这种异常:

	@Override
    public Response intercept(Interceptor.Chain chain) throws IOException {
        ...
        if ((code == 204 || code == 205) && response.body().contentLength() > 0) {
            throw new ProtocolException(
                    "HTTP " + code + " had non-zero Content-Length: " + response.body().contentLength());
        }
        ...
    }

看条件,是状态码为 204 或 205 且响应体内容长度大于 0 时会抛出 ProtocolException。两个状态码的含义分别为:

  • 204:No Content,表示无内容。服务器成功处理,但未返回内容。在未更新网页的情况下,可确保浏览器继续显示当前文档
  • 205:Reset Content,表示重置内容。服务器处理成功,用户终端(例如:浏览器)应重置文档视图。可通过此返回码清除浏览器的表单域

也就是说,状态码告诉我们服务器没有返回内容,即没有响应体,但是我们通过代码拿到响应体的内容长度大于 0,这两个条件前后矛盾,有可能是服务器响应本身就存在问题,就算重试也还是得到一个错误结果,于是抛出 ProtocolException 不进行重试。

是否有更多路线

我们在配置 OkHttpClient 的时候可能会为客户端配置多个代理,而服务器端的同一个域名也可能会有多个 ip,当某条路线通信失败后,如果存在更多路线,就会换个路线尝试。比如说,restapi.amap.com 解析为 IP1 和 IP2,如果 IP1 通信失败会重试 IP2。

最后我们用一张图来总结一下发生异常后重试的流程:


可以看出,重试条件还是比较苛刻的。

2.2 重定向

如果不满足重试条件,即在 RouteException 和 IOException 中没能执行到 continue 跳出本次循环的话,程序就会运行到 followUpRequest() 进行重定向的相关操作:

	/**
	* 如果此方法返回空,表示不需要重定向;如果返回非空,就要对返回的 Request 对象做重新请求。
	* 需要注意的是,在拦截器中定义的最大重定向次数为 20 次
	*/
	private Request followUpRequest(Response userResponse, Route route) throws IOException {
		// 如果请求失败,连 Response 都不存在就会抛出异常
        if (userResponse == null) throw new IllegalStateException();
        int responseCode = userResponse.code();

        final String method = userResponse.request().method();
        switch (responseCode) {
        	// 407:客户端使用了 HTTP 代理服务器,在请求头中添加【Proxy-Authorization】,让代理服务器授权
            case HTTP_PROXY_AUTH:
                Proxy selectedProxy = route != null
                        ? route.proxy()
                        : client.proxy();
                if (selectedProxy.type() != Proxy.Type.HTTP) {
                    throw new ProtocolException("Received HTTP_PROXY_AUTH (407) code while not using proxy");
                }
                // 调用 OkHttpClient 代理的鉴权接口
                return client.proxyAuthenticator().authenticate(route, userResponse);

			// 401:需要身份验证,有些服务器接口需要验证使用者身份,在请求头中添加【Authorization】
            case HTTP_UNAUTHORIZED:
                return client.authenticator().authenticate(route, userResponse);

			// 308:永久重定向
            case HTTP_PERM_REDIRECT:
            // 307:临时重定向
            case HTTP_TEMP_REDIRECT:
                // 如果请求方式不是 GET 或 HEAD,则不自动重定向请求
                if (!method.equals("GET") && !method.equals("HEAD")) {
                    return null;
                }
            // 300:多种选择。请求的资源可包括多个位置,相应可返回一个资源特征与地址的列表用于客户端选择
            case HTTP_MULT_CHOICE:
            // 301:永久移动。请求的资源已被永久的移动到新 URI,返回信息会包括新的 URI,
            // 浏览器会自动定向到新 URI。今后任何新的请求都应使用新的 URI 代替
            case HTTP_MOVED_PERM:
            // 302:临时移动。与 301 类似。但资源只是临时被移动。客户端应继续使用原有 URI
            case HTTP_MOVED_TEMP:
            // 303:查看其它地址。与 301 类似。使用 GET 和 POST 请求查看
            case HTTP_SEE_OTHER:
                // 客户端不允许重定向就返回 null
                if (!client.followRedirects()) return null;

				// 从响应头取出 Location,并配置新请求的 url
                String location = userResponse.header("Location");
                if (location == null) return null;
                HttpUrl url = userResponse.request().url().resolve(location);

                // 如果 url 为 null 说明协议不支持 HttpUrl,那么就不做重定向
                if (url == null) return null;

                // 如果重定向的两个 url 的 scheme 不同,并且配置了 OkHttpClient 不允许
                // ssl 重定向(默认允许),那么就返回 null 不做重定向
                boolean sameScheme = url.scheme().equals(userResponse.request().url().scheme());
                if (!sameScheme && !client.followSslRedirects()) return null;

                Request.Builder requestBuilder = userResponse.request().newBuilder();
                // 如果请求方式允许有请求体,即不是 GET、HEAD 请求
                if (HttpMethod.permitsRequestBody(method)) {
                	// 只有 PROPFIND 请求才能带着请求体进行重定向,其它请求的 maintainBody 都是 false
                    final boolean maintainBody = HttpMethod.redirectsWithBody(method);
                    if (HttpMethod.redirectsToGet(method)) {
                    	// 除了 PROPFIND 请求之外都改成 GET 请求
                        requestBuilder.method("GET", null);
                    } else {
                        RequestBody requestBody = maintainBody ? userResponse.request().body() : null;
                        requestBuilder.method(method, requestBody);
                    }
                    // 不保持请求体,就要将请求头中关于请求体的数据删掉
                    if (!maintainBody) {
                        requestBuilder.removeHeader("Transfer-Encoding");
                        requestBuilder.removeHeader("Content-Length");
                        requestBuilder.removeHeader("Content-Type");
                    }
                }

                // 跨主机重定向要删除身份验证请求头。这可能会让应用层感到烦恼,因为应用层没有办法保留这些请求头
                if (!sameConnection(userResponse, url)) {
                    requestBuilder.removeHeader("Authorization");
                }

                return requestBuilder.url(url).build();

			// 408:服务器等待客户端发送的请求时间过长,超时。实际中用的很少,像 HAProxy 这种服务器会用这个状态码,
			// 不需要修改请求,只需再申请一次即可。
            case HTTP_CLIENT_TIMEOUT:
            	// 客户端配置了不进行重试
                if (!client.retryOnConnectionFailure()) {
                    return null;
                }

				// 请求体实现了 UnrepeatableRequestBody 接口,不重试
                if (userResponse.request().body() instanceof UnrepeatableRequestBody) {
                    return null;
                }

				// 如果本次响应本身就是一个重新请求,并且上一次是 408,那么就不再重试了
                if (userResponse.priorResponse() != null
                        && userResponse.priorResponse().code() == HTTP_CLIENT_TIMEOUT) {
                    return null;
                }

				// 如果服务器告诉我们需要在多久后重试,那框架就不管了
                if (retryAfter(userResponse, 0) > 0) {
                    return null;
                }
				
				// 返回原来的请求,没有修改,也就是重试了
                return userResponse.request();

			// 503:由于超载或系统维护,服务器暂时的无法处理客户端的请求。延时的长度可包含在服务器的 Retry-After 头信息中
            case HTTP_UNAVAILABLE:
                if (userResponse.priorResponse() != null
                        && userResponse.priorResponse().code() == HTTP_UNAVAILABLE) {
                    // We attempted to retry and got another timeout. Give up.
                    return null;
                }

				// 如果服务器返回的 Retry-After 是 0,也就是立即重试的意思,框架才重新请求
                if (retryAfter(userResponse, Integer.MAX_VALUE) == 0) {
                    return userResponse.request();
                }

                return null;

            default:
                return null;
        }
    }

我们看到重定向主要就是根据 Response 中返回的 Http 的状态码做相应的处理,如果对状态码不是很熟悉,可以参考HTTP 状态码,至少要清楚状态码的分类:

分类分类描述
1**信息,服务器收到请求,需要请求者继续执行操作
2**成功,操作被成功接收并处理
3**重定向,需要进一步的操作以完成请求
4**客户端错误,请求包含语法错误或无法完成请求
5**服务器错误,服务器在处理请求的过程中发生了错误

我们根据处理方式的相似程度,分组介绍以上响应码,顺序就采用 switch 代码块中书写的响应码顺序。

重定向中的响应码

401 & 407

如果你使用了 Http 代理服务器,那么在做重定向时,代理服务器会给你返回一个 407 的状态码,我们看到在 HTTP_PROXY_AUTH 这个 case 下,最终返回的是 OkHttpClient 的 proxyAuthenticator 的 authenticate() 的结果。也就是说,如果你挂了代理,那么你需要通过 proxyAuthenticator() 给 OkHttpClient 配置代理服务器的鉴权信息,在请求头中添加 Proxy-Authorization:

	OkHttpClient client = new OkHttpClient.Builder()
                .proxyAuthenticator(new Authenticator() {
                    @Nullable
                    @Override
                    public Request authenticate(Route route, Response response) throws IOException {
                        // 参考 Authenticator 接口上的注释就知道为何要这样写了
                        String credential = Credentials.basic("userName", "password");
                        Request request = response.request().newBuilder()
                                .addHeader("Proxy-Authorization", credential)
                                .build();
                        return request;
                    }
                })
                .build();

与 407 类似,状态码 401 是服务器需要授权,比如某些接口需要登录才能使用(当然这种方式不安全,现在基本上已经不用这种方式了),此时需要在请求头中添加 Authorization,配置的方式与 407 类似,通过 OkHttpClient.Builder 的 authenticator() 进行配置,不再赘述。

300 ~ 303、307 & 308

如果响应码是 3 开头,说明响应头中有一个 Location 字段指向另一个 URL,意思是服务器让你重定向,向 Location 中的 URL 发起请求。

307 和 308 分别表示临时重定向和永久重定向,如果请求方式不是 GET 或 POST,那么用户代理绝对不能自动重定向该请求。于是在 HTTP_PERM_REDIRECT 和 HTTP_TEMP_REDIRECT 两个 case 下就只是对请求方式进行了判断,如果不是 GET 或 POST 就直接返回 null 表示不进行重定向。

而如果请求方式验证没有问题,会继续向下走,做与 300 ~ 303 相同的处理:

  • 先看 OkHttpClient 是否允许重定向,,如不允许,直接返回 null
  • 接下来从 Response 中取出 Location 字段,并将 Location 指定的 URL 封装进 HttpUrl
  • 如果当前 URL 与重定向的 URL 的 scheme 不同,且 OkHttpClient 不允许 SSL 重定向,返回 null
  • 在 Response 携带的 Request 的基础上新建请求体,除了 PROPFIND 方式可以保留原有请求体进行重定向外,其它请求全部修改为 GET,并且移除原请求头中的 Transfer-Encoding、Content-Length 和 Content-Type 字段
  • 如果是跨主机重定向,要删除身份验证请求头 Authorization
  • 最后通过构造者模式新建这个重定向的 Request 并返回
408 & 503

这两个状态码其实跟重定向没啥关系,应该是重试,只不过之前在 2.1 节说的重试,是因为发送请求时出现了异常而进行重试,而这两个状态码是服务器返回的状态,分别告诉我们客户端连接超时、服务器当前不可用,那 OkHttp 框架针对这两个状态码的处理就是重试。

对于 408 的处理,有一部分跟之前的重试处理逻辑是一样的,就不多说了,主要看看 retryAfter() 是干啥的,因为该方法在下面处理 503 的时候也用到了:

	/**
	* 根据响应头中的 Retry-After 字段,返回当前距离下一次重试需要的时间。当前会忽略 
	* HTTP 的日期,并且假设任何非 int 型的 0 都是延迟
	*/
	private int retryAfter(Response userResponse, int defaultDelay) {
        String header = userResponse.header("Retry-After");

        if (header == null) {
            return defaultDelay;
        }

        // https://tools.ietf.org/html/rfc7231#section-7.1.3
        // currently ignores a HTTP-date, and assumes any non int 0 is a delay
        if (header.matches("\\d+")) {
            return Integer.valueOf(header);
        }

        return Integer.MAX_VALUE;
    }

实际上就是返回一个延迟的值,表示过多长时间之后再重试。在处理 503 的时候,只有这个延迟是 0 时,才会返回一个 Request 进行处理,否则就不管了。

最后对这些响应码做一个总结:

响应码说明重定向条件
407代理需要授权,如付费代理,需要验证身份通过proxyAuthenticator获得到了Request。
例: 添加 Proxy-Authorization 请求头
401服务器需要授权,如某些接口需要登陆才能使用 (不安全,基本上没用了)通过authenticator获得到了Request。
例: 添加 Authorization 请求头
300、301、 302、303、 307、308重定向响应307与308必须为GET/HEAD请求再继续判断
1、用户允许自动重定向(默认允许)
2、能够获得 Location 响应头,并且值为有效url
3、如果重定向需要由HTTP到https间切换,需要允许(默认允许)
408请求超时。服务器觉得你太慢了1、用户允许自动重试(默认允许)
2、本次请求的结果不是 响应408的重试结果
3、服务器未响应Retry-After(稍后重试),或者响应Retry-After: 0。
503服务不可用1、本次请求的结果不是 响应503的重试结果
2、服务器明确响应 Retry-After: 0,立即重试

重试与重定向拦截器只会对 Response 做处理,而不会处理 Request。而接下来要说的桥接拦截器,对 Request 和 Response 都会做出处理。

三、桥接拦截器

BridgeInterceptor 是连接应用程序和服务器的桥梁,我们发出的请求将会经过它的处理才能正确的发给服务器,比如设置请求内容长度,编码,gzip 压缩,Cookie 等,获取响应后保存 Cookie 等操作。

	@Override
    public Response intercept(Interceptor.Chain chain) throws IOException {
    	// 基于上一个拦截器传来的请求创建一个新请求
        Request userRequest = chain.request();
        Request.Builder requestBuilder = userRequest.newBuilder();

		// 开始补全请求头
        RequestBody body = userRequest.body();
        if (body != null) {
            MediaType contentType = body.contentType();
            if (contentType != null) {
                requestBuilder.header("Content-Type", contentType.toString());
            }

            long contentLength = body.contentLength();
            if (contentLength != -1) {
                requestBuilder.header("Content-Length", Long.toString(contentLength));
                requestBuilder.removeHeader("Transfer-Encoding");
            } else {
                requestBuilder.header("Transfer-Encoding", "chunked");
                requestBuilder.removeHeader("Content-Length");
            }
        }

		// 如果请求头中没有配置 Host,则补全
        if (userRequest.header("Host") == null) {
            requestBuilder.header("Host", hostHeader(userRequest.url(), false));
        }

		// 如果请求头中没有配置 Connection,框架会自动为我们申请一个长连接,如果服务器同意
		// 长连接,那么会返回一个 Connection:Keep-Alive,否则返回 Connection:close
        if (userRequest.header("Connection") == null) {
            requestBuilder.header("Connection", "Keep-Alive");
        }

        // 如果请求头没配置 Accept-Encoding 和 Range 字段,则用 gzip 格式补全 Accept-Encoding
        boolean transparentGzip = false;
        if (userRequest.header("Accept-Encoding") == null && userRequest.header("Range") == null) {
            transparentGzip = true;
            requestBuilder.header("Accept-Encoding", "gzip");
        }

		// 补全请求头中的 Cookie 字段,cookieJar 在创建桥接责任链对象时传入
        List<Cookie> cookies = cookieJar.loadForRequest(userRequest.url());
        if (!cookies.isEmpty()) {
            requestBuilder.header("Cookie", cookieHeader(cookies));
        }

		// 补全请求头中的 User-Agent 字段,即请求者的用户信息,如操作系统、浏览器等
        if (userRequest.header("User-Agent") == null) {
            requestBuilder.header("User-Agent", Version.userAgent());
        }

		// 补全请求头后创建一个新的 Request 对象交给下一个责任链处理
        Response networkResponse = chain.proceed(requestBuilder.build());

		// 读取 Set-Cookie 响应头并调用接口告知用户,在下次请求时会读取对应的数据设置进请求头
        HttpHeaders.receiveHeaders(cookieJar, userRequest.url(), networkResponse.headers());

        Response.Builder responseBuilder = networkResponse.newBuilder()
                .request(userRequest);

		// 解压。如果响应头 Content-Encoding 为 gzip,则使用 GzipSource 包装解析
        if (transparentGzip
                && "gzip".equalsIgnoreCase(networkResponse.header("Content-Encoding"))
                && HttpHeaders.hasBody(networkResponse)) {
            GzipSource responseBody = new GzipSource(networkResponse.body().source());
            Headers strippedHeaders = networkResponse.headers().newBuilder()
                    .removeAll("Content-Encoding")
                    .removeAll("Content-Length")
                    .build();
            responseBuilder.headers(strippedHeaders);
            String contentType = networkResponse.header("Content-Type");
            responseBuilder.body(new RealResponseBody(contentType, -1L, Okio.buffer(responseBody)));
        }

        return responseBuilder.build();
    }

补全的请求头列表:

请求头说明
Content-Type请求体类型,如:application/x-www-form-urlencoded
Content-Length / Transfer-Encoding请求体解析方式
Host请求的主机站点
Connection: Keep-Alive保持长连接
Accept-Encoding: gzip接受响应支持 gzip 压缩
Cookiecookie 身份辨别
User-Agent请求的用户信息,如:操作系统、浏览器等

在补全请求头后会将新产生的 Request 传递给责任链上的下一个拦截器处理,得到 Response 后会做两件事:

  1. 保存 cookie,下次请求时会读取对应的数据设置进请求头,默认的 CookieJar 不提供实现
  2. 解压,如果响应头 Content-Encoding 为 gzip,则使用 GzipSource 包装便于解析

CookieJar 接口需要我们实现从 Response 保存 cookie 和为 Request 加载 cookie 的方法,其内部有一个默认不接收任何 cookie 的实现:

public interface CookieJar {
    /**
     * A cookie jar that never accepts any cookies.
     */
    CookieJar NO_COOKIES = new CookieJar() {
        @Override
        public void saveFromResponse(HttpUrl url, List<Cookie> cookies) {
        }

        @Override
        public List<Cookie> loadForRequest(HttpUrl url) {
            return Collections.emptyList();
        }
    };

    /**
     * Saves {@code cookies} from an HTTP response to this store according to this jar's policy.
     *
     * <p>Note that this method may be called a second time for a single HTTP response if the response
     * includes a trailer. For this obscure HTTP feature, {@code cookies} contains only the trailer's
     * cookies.
     */
    void saveFromResponse(HttpUrl url, List<Cookie> cookies);

    /**
     * Load cookies from the jar for an HTTP request to {@code url}. This method returns a possibly
     * empty list of cookies for the network request.
     */
    List<Cookie> loadForRequest(HttpUrl url);
}

如果我们自己实现了一个 CookieJar,需要通过 cookieJar() 配置给 OkHttpClient 。

总结一下,桥接拦截器的作用:

  1. 对用户构建的 Request 进行添加或者删除相关头部信息,以转化成能够真正进行网络请求的 Request
  2. 将 Request 交给下一个拦截器处理并获取 Response
  3. 保存 Cookie,以便在下次请求时会读取对应的数据设置进请求头
  4. 如果 Response 经过了 GZIP 压缩,那就需要解压,再构建成用户可用的 Response 并返回

四、缓存拦截器

CacheInterceptor 的使用有一个前提,就是必须是 GET 请求。在发出 GET 请求前,判断是否命中缓存,如果命中则可以不通过网络发送请求,而是直接使用缓存中的响应。正是因为这样,使用缓存可以减少流量消耗,同时加快响应速度。

OkHttpClient 默认不会使用缓存,需要通过 cache() 进行配置,将缓存持久化保存在本地:

		// 缓存文件
        File cacheFile = new File("xxxx");
        // 缓存文件的最大容量
        long maxSize = 1024 * 1024;
        OkHttpClient client = new OkHttpClient.Builder()
                .cache(new Cache(cacheFile,maxSize))
                .build();

缓存拦截器面临的最重要的问题是:发送网络请求,还是使用缓存?这个问题的判断是由“缓存策略” CacheStrategy 决定的,其实它也影响着这个 CacheInterceptor 的工作逻辑,所以我们先来看下 CacheStrategy。

4.1 缓存策略

在 CacheStrategy 中有两个成员 networkRequest 和 cacheResponse:

	CacheStrategy(Request networkRequest, Response cacheResponse) {
	    this.networkRequest = networkRequest;
	    this.cacheResponse = cacheResponse;
    }

分别表示是否需要发起网络请求、能否使用缓存,二者共同决定了最终会采用哪种缓存策略:

networkRequestcacheResponse说明
NullNot Null直接使用缓存
NullNull请求失败,OkHttp 框架会返回 504
Not NullNull向服务器发起请求
Not NullNot Null发起请求,若得到响应为 304(无修改),则更新缓存响应并返回

即 networkRequest 存在则优先发起网络请求,否则使用 cacheResponse 缓存,若都不存在则请求失败!

源码实现部分涉及到的流程和细节比较繁杂,特别是涉及到 Http 状态码处理的内容,可能会让人看的抓狂,所以看到这里知道缓存策略的四种取值情况就可以越过源码去到 4.2 节看缓存拦截器具体的工作流程,看如何使用缓存策略了。

看源码实现,其实 CacheStrategy 的内部类 Factory 才是真正的缓存策略的制定者:

	public static class Factory {
	
		/**
		* nowMillis:时间戳
		* request:寻求缓存的请求
		* cacheResponse:request 对应的缓存的响应
		*/
		public Factory(long nowMillis, Request request, Response cacheResponse) {
	        this.nowMillis = nowMillis;
	        this.request = request;
	        this.cacheResponse = cacheResponse;
	
	        if (cacheResponse != null) {
	        	// cacheResponse 对应的请求发出的本地时间以及接收到这个响应的本地时间
	            this.sentRequestMillis = cacheResponse.sentRequestAtMillis();
	            this.receivedResponseMillis = cacheResponse.receivedResponseAtMillis();
	            // 保存 cacheResponse 的响应头中的部分数据
	            Headers headers = cacheResponse.headers();
	            for (int i = 0, size = headers.size(); i < size; i++) {
	                String fieldName = headers.name(i);
	                String value = headers.value(i);
	                if ("Date".equalsIgnoreCase(fieldName)) {
	                    servedDate = HttpDate.parse(value);
	                    servedDateString = value;
	                } else if ("Expires".equalsIgnoreCase(fieldName)) {
	                    expires = HttpDate.parse(value);
	                } else if ("Last-Modified".equalsIgnoreCase(fieldName)) {
	                    lastModified = HttpDate.parse(value);
	                    lastModifiedString = value;
	                } else if ("ETag".equalsIgnoreCase(fieldName)) {
	                    etag = value;
	                } else if ("Age".equalsIgnoreCase(fieldName)) {
	                    ageSeconds = HttpHeaders.parseSeconds(value, -1);
	                }
	            }
	        }
	    }
	}

在 Factory 的构造方法中,主要是将缓存的响应头中的部分字段的值保存到 Factory 对应的成员变量中,这些响应头的含义如下:

响应头说明例子
Date消息发送的时间Date: Sat, 18 Nov 2028 06:17:41 GMT
Expires资源过期的时间Expires: Sat, 18 Nov 2028 06:17:41 GMT
Last-Modified资源最后修改时间Last-Modified: Fri, 22 Jul 2016 02:57:17 GMT
ETag资源在服务器的唯一标识ETag: “16df0-5383097a03d40”
Age服务器用缓存响应请求,该缓存从产生到现在经过多长时间(秒)Age: 3825683
Cache-Control--

Cache-Control 可以同时存在与请求头和响应头。

保存好信息,接下来就要进入策略制定了,入口在 get(),它会给我们返回一个符合要求的 CacheStrategy:

	public CacheStrategy get() {
		// 获取 CacheStrategy
        CacheStrategy candidate = getCandidate();

		// 检查 candidate 合理性:如果允许使用缓存,那么 networkRequest 一定为 null。但是 if 中只使用缓存,
		// networkRequest 又不为 null,这就是一个冲突的条件,那就干脆算作请求失败,返回一个双空 CacheStrategy
        if (candidate.networkRequest != null && request.cacheControl().onlyIfCached()) {
            // We're forbidden from using the network and the cache is insufficient.
            return new CacheStrategy(null, null);
        }

        return candidate;
    }

真正产生 CacheStrategy 的是 getCandidate(),该方法会假设 Request 允许使用网络(意思不考虑是否因为配置等原因造成网络不可使用,我就只是根据规则判断是否需要发送网络请求返回给使用者,至于网络是否能用,你拿着我给的结果自己判断去):

	private CacheStrategy getCandidate() {
        // 1.没找到 request 对应的缓存,那就进行网络请求
        if (cacheResponse == null) {
            return new CacheStrategy(request, null);
        }

        // 2.如果是 Https 请求,但是缓存中没有对应的握手信息,那么缓存无效,需要进行网络请求
        if (request.isHttps() && cacheResponse.handshake() == null) {
            return new CacheStrategy(request, null);
        }

        // 3.通过检查响应码检查 cacheResponse 不应该被缓存的情况,此时要进行网络请求
        if (!isCacheable(cacheResponse, request)) {
            return new CacheStrategy(request, null);
        }

		// 4.请求头中满足以下三个条件之一,需要进行网络请求:
		// 1)包含 Cache-Control: no-cache,表示客户端不使用缓存/验证缓存有效性?
		// 2)包含 If-Modified-Since: 时间,值一般为 Date 或 lastModified ,服务器没有在指定的时间后修改请求对应资源,返回304(无修改)
		// 3)包含 If-None-Match:标记,值一般为 Etag,将其与请求对应资源的 Etag 值进行比较;如果匹配,返回304
        CacheControl requestCaching = request.cacheControl();
        if (requestCaching.noCache() || hasConditions(request)) {
            return new CacheStrategy(request, null);
        }

		// 5.资源是否不变?如是,则请求的响应内容将一直不会改变,使用缓存
        CacheControl responseCaching = cacheResponse.cacheControl();
        if (responseCaching.immutable()) {
            return new CacheStrategy(null, cacheResponse);
        }

		// 6.响应的缓存有效期
        long ageMillis = cacheResponseAge();
        long freshMillis = computeFreshnessLifetime();

        if (requestCaching.maxAgeSeconds() != -1) {
            freshMillis = Math.min(freshMillis, SECONDS.toMillis(requestCaching.maxAgeSeconds()));
        }

        long minFreshMillis = 0;
        if (requestCaching.minFreshSeconds() != -1) {
            minFreshMillis = SECONDS.toMillis(requestCaching.minFreshSeconds());
        }

        long maxStaleMillis = 0;
        if (!responseCaching.mustRevalidate() && requestCaching.maxStaleSeconds() != -1) {
            maxStaleMillis = SECONDS.toMillis(requestCaching.maxStaleSeconds());
        }

        if (!responseCaching.noCache() && ageMillis + minFreshMillis < freshMillis + maxStaleMillis) {
            Response.Builder builder = cacheResponse.newBuilder();
            if (ageMillis + minFreshMillis >= freshMillis) {
                builder.addHeader("Warning", "110 HttpURLConnection \"Response is stale\"");
            }
            long oneDayMillis = 24 * 60 * 60 * 1000L;
            if (ageMillis > oneDayMillis && isFreshnessLifetimeHeuristic()) {
                builder.addHeader("Warning", "113 HttpURLConnection \"Heuristic expiration\"");
            }
            return new CacheStrategy(null, builder.build());
        }

        // Find a condition to add to the request. If the condition is satisfied, the response body
        // will not be transmitted.
        String conditionName;
        String conditionValue;
        if (etag != null) {
            conditionName = "If-None-Match";
            conditionValue = etag;
        } else if (lastModified != null) {
            conditionName = "If-Modified-Since";
            conditionValue = lastModifiedString;
        } else if (servedDate != null) {
            conditionName = "If-Modified-Since";
            conditionValue = servedDateString;
        } else {
            return new CacheStrategy(request, null); // No condition! Make a regular request.
        }

        Headers.Builder conditionalRequestHeaders = request.headers().newBuilder();
        Internal.instance.addLenient(conditionalRequestHeaders, conditionName, conditionValue);

        Request conditionalRequest = request.newBuilder()
                .headers(conditionalRequestHeaders.build())
                .build();
        return new CacheStrategy(conditionalRequest, cacheResponse);
    }

这个方法很长,简单的情况看注释即可,下面解释几个复杂一点的情况。

是否可以缓存

在第 3 中情况中,使用 isCacheable() 对响应码和响应头进行了检查:

	public static boolean isCacheable(Response response, Request request) {
        // 总是通过网络获取不可缓存的响应码(RFC 7231 section 6.1),此实现不支持缓存部分内容
        switch (response.code()) {
            case HTTP_OK: // 200
            case HTTP_NOT_AUTHORITATIVE: // 203
            case HTTP_NO_CONTENT: // 204
            case HTTP_MULT_CHOICE: // 300
            case HTTP_MOVED_PERM: // 301
            case HTTP_NOT_FOUND: // 404
            case HTTP_BAD_METHOD: // 405
            case HTTP_GONE: // 410
            case HTTP_REQ_TOO_LONG: // 414
            case HTTP_NOT_IMPLEMENTED: // 501
            case StatusLine.HTTP_PERM_REDIRECT: // 308
                // 以上代码可以缓存,除非被请求头/响应头中的 cache-control:nostore 禁止了
                break;

            case HTTP_MOVED_TEMP: // 302
            case StatusLine.HTTP_TEMP_REDIRECT: // 307
            	// 302 和 307,如果响应头中的 Expires 不为 null,或者 CacheControl 的值为
            	// max-age、public、private 三者之一才有机会去继续判断是否存在
            	// cache-control:nostore,否则直接返回 false 表示不可缓存
                if (response.header("Expires") != null
                        || response.cacheControl().maxAgeSeconds() != -1
                        || response.cacheControl().isPublic()
                        || response.cacheControl().isPrivate()) {
                    break;
                }
                // Fall-through.

            default:
                // All other codes cannot be cached.
                return false;
        }

        // 请求头或响应头只要有一个的 Cache-Control 的值为 no-store,都要返回 false 不进行缓存
        return !response.cacheControl().noStore() && !request.cacheControl().noStore();
    }

对于 200, 203, 204, 300, 301, 404, 405, 410, 414, 501, 308 这几个响应码,只需要检查请求头或响应头中是否有 Cache-Control 字段,且值包含 no-store,如果有则不可缓存,否则可以缓存。

而 302 和 307 这两个重定向响应码,在向上面那些响应码一样检查 Cache-Control 是否有 no-store 之前,需要先检查响应头中是否有允许缓存的响应头:

  1. 响应头中存在 Expires 字段,可以缓存
  2. 响应头中的 Cache-Control 字段满足下列三个条件之一即可缓存:
    • 存在资源最大有效时间 max-age
    • 值为 public,表明该资源可以被任何用户缓存,比如客户端,代理服务器等都可以缓存资源
    • 值为 private,表明该资源只能被单个用户缓存,默认是 private

需要响应头中的 Expires 不为 null,或者 CacheControl 的值为 max-age、public、private 三者之一,然后再像上面那些响应码那样检查 。

总结一下能否缓存的判定条件:

  1. 响应码不是以上提到的这些,不可缓存
  2. 响应码为 302、307 时,响应头中若不包含可以缓存的字段,不可缓存
  3. 请求头或响应头中包含 Cache-Control: no-store 时不可缓存

用户请求配置

通过 Request 的 cacheControl() 可以得到用户对请求的缓存配置 CacheControl,如果给 CacheControl 配置了不使用缓存,或者请求头中包含 If-Modified-Since、If-None-Match 两个字段之一,就不可使用缓存:

		private static boolean hasConditions(Request request) {
        	return request.header("If-Modified-Since") != null || request.header("If-None-Match") != null;
    	}

这两个字段的含义:

请求头说明
If-Modified-Since:[Time]值一般为 Date 或 lastModified,如果服务器没有在指定的时间后修改请求对应资源,会返回 304(无修改)
If-None-Match:[Tag]值一般为 Etag,将其与请求对应资源的 Etag 值进行比较;如果匹配,则返回 304

如果用户请求头中包含了这些内容,那就必须向服务器发起请求。OkHttp 并不会缓存 304 的响应,而是直接返回给使用者。

响应的缓存有效期

响应的缓存只是在一定时间内有效,并不是永久有效,判定缓存是否在有效期的公式:

缓存存活时间 < 缓存新鲜度 - 缓存最小新鲜度 + 过期后继续使用时长

“缓存新鲜度-缓存最小新鲜度”代表了缓存真正有效的时间。总体来说,只要不忽略缓存并且缓存未过期,则使用缓存。

4.2 缓存流程

按照缓存策略:原则是如果 networkRequest 存在则优先发起网络请求,否则使用 cacheResponse,若都不存在则请求失败进行拦截器逻辑处理:

	@Override
    public Response intercept(Interceptor.Chain chain) throws IOException {
    	// 1.检查请求是否有对应的 Response 缓存
        Response cacheCandidate = cache != null
                ? cache.get(chain.request())
                : null;

        long now = System.currentTimeMillis();

		// 2.由 CacheStrategy 决定是发送请求还是使用缓存
        CacheStrategy strategy = new CacheStrategy.Factory(now, chain.request(), cacheCandidate).get();
        Request networkRequest = strategy.networkRequest;
        Response cacheResponse = strategy.cacheResponse;

        if (cache != null) {
            cache.trackResponse(strategy);
        }

        if (cacheCandidate != null && cacheResponse == null) {
            closeQuietly(cacheCandidate.body()); // The cache candidate wasn't applicable. Close it.
        }

        // If we're forbidden from using the network and the cache is insufficient, fail.
        if (networkRequest == null && cacheResponse == null) {
        	// 如果 networkRequest 和 cacheResponse 都为空会返回一个 504 响应码
            return new Response.Builder()
                    .request(chain.request())
                    .protocol(Protocol.HTTP_1_1)
                    .code(504)
                    .message("Unsatisfiable Request (only-if-cached)")
                    .body(Util.EMPTY_RESPONSE)
                    .sentRequestAtMillis(-1L)
                    .receivedResponseAtMillis(System.currentTimeMillis())
                    .build();
        }

        // If we don't need the network, we're done.
        if (networkRequest == null) {
            return cacheResponse.newBuilder()
                    .cacheResponse(stripBody(cacheResponse))
                    .build();
        }

		// 3.交给下一个责任链处理
        Response networkResponse = null;
        try {
            networkResponse = chain.proceed(networkRequest);
        } finally {
            // If we're crashing on I/O or otherwise, don't leak the cache body.
            if (networkResponse == null && cacheCandidate != null) {
                closeQuietly(cacheCandidate.body());
            }
        }

        // If we have a cache response too, then we're doing a conditional get.
        if (cacheResponse != null) {
        	// 服务器返回 304,那就使用缓存作为本次请求的响应,但是需要更新时间等数据
            if (networkResponse.code() == HTTP_NOT_MODIFIED) {
            	// 更新 cacheResponse 的发送、接收时间等数据,但是响应体并没有动,还用原来的
                Response response = cacheResponse.newBuilder()
                        .headers(combine(cacheResponse.headers(), networkResponse.headers()))
                        .sentRequestAtMillis(networkResponse.sentRequestAtMillis())
                        .receivedResponseAtMillis(networkResponse.receivedResponseAtMillis())
                        .cacheResponse(stripBody(cacheResponse))
                        .networkResponse(stripBody(networkResponse))
                        .build();
                networkResponse.body().close();

                // Update the cache after combining headers but before stripping the
                // Content-Encoding header (as performed by initContentStream()).
                cache.trackConditionalCacheHit();
                cache.update(cacheResponse, response);
                return response;
            } else {
                closeQuietly(cacheResponse.body());
            }
        }

		// 代码走到这里说明缓存不可用,那就是用网络的响应
        Response response = networkResponse.newBuilder()
                .cacheResponse(stripBody(cacheResponse))
                .networkResponse(stripBody(networkResponse))
                .build();

        if (cache != null) {
            if (HttpHeaders.hasBody(response) && CacheStrategy.isCacheable(response, networkRequest)) {
                // Offer this request to the cache.
                CacheRequest cacheRequest = cache.put(response);
                return cacheWritingResponse(cacheRequest, response);
            }

            if (HttpMethod.invalidatesCache(networkRequest.method())) {
                try {
                    cache.remove(networkRequest);
                } catch (IOException ignored) {
                    // The cache cannot be written.
                }
            }
        }

        return response;
    }

五、连接拦截器

ConnectInterceptor 打开与目标服务器的连接,该连接可能是新建的,也可能是从连接池中复用的,并执行下一个拦截器。连接拦截器的 intercept() 的内容本身非常简单,只有 10 行左右的代码,它的重点都集中在连接池上,所以我们主要看看连接池。

OkHttp 的连接池是在 ConnectionPool 中实现的:

	/**
	* 默认的连接池会保持 5 个空闲连接,如果它们闲置超过 5 分钟会被回收
	*/
	public ConnectionPool() {
        this(5, 5, TimeUnit.MINUTES);
    }

	// maxIdleConnections 类似于前面说过的线程池的核心线程数
    public ConnectionPool(int maxIdleConnections, long keepAliveDuration, TimeUnit timeUnit) {
        this.maxIdleConnections = maxIdleConnections;
        this.keepAliveDurationNs = timeUnit.toNanos(keepAliveDuration);

        // Put a floor on the keep alive duration, otherwise cleanup will spin loop.
        if (keepAliveDuration <= 0) {
            throw new IllegalArgumentException("keepAliveDuration <= 0: " + keepAliveDuration);
        }
    }

向连接池中存入连接:

	private static final Executor executor = new ThreadPoolExecutor(0 /* corePoolSize */,
        Integer.MAX_VALUE /* maximumPoolSize */, 60L /* keepAliveTime */, TimeUnit.SECONDS,
        new SynchronousQueue<Runnable>(), Util.threadFactory("OkHttp ConnectionPool", true));
        
	private final Deque<RealConnection> connections = new ArrayDeque<>();
	
	void put(RealConnection connection) {
        assert (Thread.holdsLock(this));
        if (!cleanupRunning) {
            cleanupRunning = true;
            // 清理连接池
            executor.execute(cleanupRunnable);
        }
        connections.add(connection);
    }

	// 清理连接池的任务
	private final Runnable cleanupRunnable = new Runnable() {
        @Override
        public void run() {
            while (true) {
            	// 下一次执行清理动作最快需要多少时间
                long waitNanos = cleanup(System.nanoTime());
                if (waitNanos == -1) return;
                if (waitNanos > 0) {
                	// 用纳秒控制会更加精确
                    long waitMillis = waitNanos / 1000000L;
                    waitNanos -= (waitMillis * 1000000L);
                    synchronized (ConnectionPool.this) {
                        try {
                            ConnectionPool.this.wait(waitMillis, (int) waitNanos);
                        } catch (InterruptedException ignored) {
                        }
                    }
                }
            }
        }
    };

连接会被添加到 connections 这个双向队列中,在添加之前会检查 cleanupRunnable 这个清理连接池的任务是否在运行,如果没有,会用线程池运行这个任务。

	/**
	* 维护连接池的方法,会将超过 keep-alive 时间或到达了设置的空闲时间的连接
	* 回收掉。返回 -1 表示不需要更多的清理工作,而如果返回一个 long 型的纳秒
	* 时间,表示在下一次调用这个方法之前,需要线程休眠的时长
	*/
	long cleanup(long now) {
        int inUseConnectionCount = 0;
        int idleConnectionCount = 0;
        RealConnection longestIdleConnection = null;
        long longestIdleDurationNs = Long.MIN_VALUE;

        // Find either a connection to evict, or the time that the next eviction is due.
        synchronized (this) {
            for (Iterator<RealConnection> i = connections.iterator(); i.hasNext(); ) {
                RealConnection connection = i.next();

                // 如果当前连接正在被使用,就记录正在被使用的连接数量
                if (pruneAndGetAllocationCount(connection, now) > 0) {
                    inUseConnectionCount++;
                    continue;
                }

				// 否则记录闲置连接数
                idleConnectionCount++;

                // 计算当前连接已经闲置了多久,并且保存闲置时间最长的连接与时长
                long idleDurationNs = now - connection.idleAtNanos;
                if (idleDurationNs > longestIdleDurationNs) {
                    longestIdleDurationNs = idleDurationNs;
                    longestIdleConnection = connection;
                }
            }

			// 遍历结束,找到了闲置时间最长的那个连接,如果它的闲置时长超过了我们设置的保活时间,
			// 或者空闲连接数量超过了最大空闲连接数,就移除该连接。
            if (longestIdleDurationNs >= this.keepAliveDurationNs
                    || idleConnectionCount > this.maxIdleConnections) {
                connections.remove(longestIdleConnection);
            } else if (idleConnectionCount > 0) {
                // 空闲连接数大于0,即将有连接被移除,返回该连接被移除需要等待的时间
                return keepAliveDurationNs - longestIdleDurationNs;
            } else if (inUseConnectionCount > 0) {
                // 能走到这个条件说明 idleConnectionCount<=0,即没有空闲连接,此时只要 inUseConnectionCount>0
                // 就说明所有连接都在使用中,因此你至少需要等待一个保活时间的时长,才需要过来检查是否有连接需要被移除
                return keepAliveDurationNs;
            } else {
                // No connections, idle or in use.
                cleanupRunning = false;
                return -1;
            }
        }

		// 关闭掉被移除的连接
        closeQuietly(longestIdleConnection.socket());

        // Cleanup again immediately.
        return 0;
    }

从连接池中取出连接:

	@Nullable
	RealConnection get(Address address, StreamAllocation streamAllocation, Route route) {
        assert (Thread.holdsLock(this));
        // 遍历连接池,只有连接的配置(dns/代理/域名等等)一致才可以取出复用
        for (RealConnection connection : connections) {
            if (connection.isEligible(address, route)) {
                streamAllocation.acquire(connection, true);
                return connection;
            }
        }
        return null;
    }

RealConnection 的 isEligible() 用来判断复用条件:

	public boolean isEligible(Address address, @Nullable Route route) {
		// 连接池中的连接都在使用,则不能复用
        // If this connection is not accepting new streams, we're done.
        if (allocations.size() >= allocationLimit || noNewStreams) return false;

		// 地址(包括 ip、dns、代理、证书、端口等等)不同,不能复用
        // If the non-host fields of the address don't overlap, we're done.
        if (!Internal.instance.equalsNonHost(this.route.address(), address)) return false;

		// 如果 Host 也相同,那就可以复用了
        // If the host exactly matches, we're done: this connection can carry the address.
        if (address.url().host().equals(this.route().address().url().host())) {
            return true; // This connection is a perfect match.
        }

        // At this point we don't have a hostname match. But we still be able to carry the request if
        // our connection coalescing requirements are met. See also:
        // https://hpbn.co/optimizing-application-delivery/#eliminate-domain-sharding
        // https://daniel.haxx.se/blog/2016/08/18/http2-connection-coalescing/

        // 1. This connection must be HTTP/2.
        if (http2Connection == null) return false;

        // 2. The routes must share an IP address. This requires us to have a DNS address for both
        // hosts, which only happens after route planning. We can't coalesce connections that use a
        // proxy, since proxies don't tell us the origin server's IP address.
        if (route == null) return false;
        if (route.proxy().type() != Proxy.Type.DIRECT) return false;
        if (this.route.proxy().type() != Proxy.Type.DIRECT) return false;
        if (!this.route.socketAddress().equals(route.socketAddress())) return false;

        // 3. This connection's server certificate's must cover the new host.
        if (route.address().hostnameVerifier() != OkHostnameVerifier.INSTANCE) return false;
        if (!supportsUrl(address.url())) return false;

        // 4. Certificate pinning must match the host.
        try {
            address.certificatePinner().check(address.url().host(), handshake().peerCertificates());
        } catch (SSLPeerUnverifiedException e) {
            return false;
        }

        return true; // The caller's address can be carried by this connection.
    }

连接拦截器说白了就是帮我们拿到一个 Socket。

六、请求服务器拦截器

CallServerInterceptor,将 Request 中的请求数据拼接成一个报文并发送出去,在收到服务器返回响应后,解析其中的数据并封装到 Response 中。

	@Override
    public Response intercept(Interceptor.Chain chain) throws IOException {
        RealInterceptorChain realChain = (RealInterceptorChain) chain;
        HttpCodec httpCodec = realChain.httpStream();
        StreamAllocation streamAllocation = realChain.streamAllocation();
        RealConnection connection = (RealConnection) realChain.connection();
        Request request = realChain.request();

        long sentRequestMillis = System.currentTimeMillis();

		// 写请求头,HttpCodec 有两个实现类 Http1Codec、Http2Codec
        realChain.eventListener().requestHeadersStart(realChain.call());
        httpCodec.writeRequestHeaders(request);
        realChain.eventListener().requestHeadersEnd(realChain.call(), request);

        Response.Builder responseBuilder = null;
        // 请求方式需要携带请求体(即抛出 GET、HEADER),并且请求体不为空
        if (HttpMethod.permitsRequestBody(request.method()) && request.body() != null) {
            // If there's a "Expect: 100-continue" header on the request, wait for a "HTTP/1.1 100
            // Continue" response before transmitting the request body. If we don't get that, return
            // what we did get (such as a 4xx response) without ever transmitting the request body.
            // 如果请求头中包含 Expect:100-continue,
            if ("100-continue".equalsIgnoreCase(request.header("Expect"))) {
            	// 发出请求头
                httpCodec.flushRequest();
                realChain.eventListener().responseHeadersStart(realChain.call());
                // 如果服务器同意接收该请求,会响应 100,无响应体,得到的 responseBuilder 为空
                responseBuilder = httpCodec.readResponseHeaders(true);
            }

			// 服务器同意接收请求,才开始写请求体并发送出去
            if (responseBuilder == null) {
                // Write the request body if the "Expect: 100-continue" expectation was met.
                realChain.eventListener().requestBodyStart(realChain.call());
                long contentLength = request.body().contentLength();
                CallServerInterceptor.CountingSink requestBodyOut =
                        new CallServerInterceptor.CountingSink(httpCodec.createRequestBody(request, contentLength));
                BufferedSink bufferedRequestBody = Okio.buffer(requestBodyOut);

                request.body().writeTo(bufferedRequestBody);
                bufferedRequestBody.close();
                realChain.eventListener()
                        .requestBodyEnd(realChain.call(), requestBodyOut.successfulCount);
            } else if (!connection.isMultiplexed()) {
                // 服务器不接收,并且连接不支持多路复用的(其实就是看是不是 Http2,Http2 支持,Http1 不支持),关闭连接
                streamAllocation.noNewStreams();
            }
        }

        httpCodec.finishRequest();

        if (responseBuilder == null) {
            realChain.eventListener().responseHeadersStart(realChain.call());
            responseBuilder = httpCodec.readResponseHeaders(false);
        }

        Response response = responseBuilder
                .request(request)
                .handshake(streamAllocation.connection().handshake())
                .sentRequestAtMillis(sentRequestMillis)
                .receivedResponseAtMillis(System.currentTimeMillis())
                .build();

        int code = response.code();
        if (code == 100) {
            // server sent a 100-continue even though we did not request one.
            // try again to read the actual response
            responseBuilder = httpCodec.readResponseHeaders(false);

            response = responseBuilder
                    .request(request)
                    .handshake(streamAllocation.connection().handshake())
                    .sentRequestAtMillis(sentRequestMillis)
                    .receivedResponseAtMillis(System.currentTimeMillis())
                    .build();

            code = response.code();
        }

        realChain.eventListener()
                .responseHeadersEnd(realChain.call(), response);

        if (forWebSocket && code == 101) {
            // Connection is upgrading, but we need to ensure interceptors see a non-null response body.
            response = response.newBuilder()
                    .body(Util.EMPTY_RESPONSE)
                    .build();
        } else {
            response = response.newBuilder()
                    .body(httpCodec.openResponseBody(response))
                    .build();
        }

        if ("close".equalsIgnoreCase(response.request().header("Connection"))
                || "close".equalsIgnoreCase(response.header("Connection"))) {
            streamAllocation.noNewStreams();
        }

        if ((code == 204 || code == 205) && response.body().contentLength() > 0) {
            throw new ProtocolException(
                    "HTTP " + code + " had non-zero Content-Length: " + response.body().contentLength());
        }

        return response;
    }

Expect: 100-continue 一般用于上传大容量请求体或者需要验证时,会先询问服务器是否愿意接收请求体,此时服务器可能会有三种操作:

  1. 服务器同意接收,会返回 100 给客户端,然后客户端才可以发出请求体
  2. 服务器返回其它响应码,框架会直接返回给用户
  3. 服务器忽略此请求头,客户端一直无法读取到服务器的应答,导致抛出超时异常
  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值