这篇博客主要记录下okhttp源码系列的流程,也为了避免下次再忘记看过的东西,废话不多说,直接切入今天的主题。
起始
先简单了解下使用到的类:
OkHttpClient:使用okhttp的起点类,它配合管理包括分发, 响应拦截, 网络配置(超时,重定向重试)等。此外OkHttpClient是以buider模式创建已经初始化一些必要的基本参数
Call: 请求调用的抽象接口,支持同步和异步请求。同步调用:execute , 异步调用:enqueue。 支持cancel。需依赖request
(实际我们用的是RealCall)
Request: 承载网络请求信息,其中 包含 headers, method:GET/POST , url, requestBody(Post时报文体)。
Response: 请求回应(包含body, request,同时包含缓存回应, 网络回应, 重试回应等等状态记录)
Dispatcher: 请求分发, 分为:同步分发,异步分发。
Interceptor: 拦截器(流程重点)暂有以下:
RetryAndFlowUpInterceptor: 重试以及重定向处理,除去我们自己定义的拦截器,它是第一层拦截器
BridgeInterceptor: 桥接拦截器(支持gzip格式传输等等)
CacheInterceptor: 缓存拦截器 (支持缓存数据,可自定义缓存策略)
ConnectInterceptor: 连接拦截器 (创建及封装socket连接通信)
CallServerInterceptor: 服务拦截器 (封装完善请求并接收响应,先基本都直接配合retrofit直接包装整个过程)
大体流程
okhttp的请求起始方法为OkHttpClient的newCall方法
分为两种:同步(execute)与异步(enqueue)
OkHttpClient.Builder builder = new OkHttpClient.Builder();
OkHttpClient okHttpClient = builder.build();
Request request = new Request.Builder().url(url).build();
Response response =okHttpClient.newCall(request).execute(); // 同步拿到结果
okHttpClient.newCall(request).enqueue(new Callback() {
@Override
public void onFailure(Call call, IOException e) {
// todo 请求失败的处理
}
@Override
public void onResponse(Call call, Response response) throws IOException {
// todo 请求成功的处理
}
});
当同步时
@Override protected void execute() {
boolean signalledCallback = false;
try {
Response response = getResponseWithInterceptorChain();
if (retryAndFollowUpInterceptor.isCanceled()) {
signalledCallback = true;
responseCallback.onFailure(RealCall.this, new IOException("Canceled"));
} else {
signalledCallback = true;
responseCallback.onResponse(RealCall.this, response);
}
} catch (IOException e) {
if (signalledCallback) {
// Do not signal the callback twice!
Platform.get().log(INFO, "Callback failure for " + toLoggableString(), e);
} else {
responseCallback.onFailure(RealCall.this, e);
}
} finally {
client.dispatcher().finished(this);
}
}
异步时
@Override protected void execute() {
boolean signalledCallback = false;
try {
Response response = getResponseWithInterceptorChain();
if (retryAndFollowUpInterceptor.isCanceled()) {
signalledCallback = true;
responseCallback.onFailure(RealCall.this, new IOException("Canceled"));
} else {
signalledCallback = true;
responseCallback.onResponse(RealCall.this, response);
}
} catch (IOException e) {
if (signalledCallback) {
// Do not signal the callback twice!
Platform.get().log(INFO, "Callback failure for " + toLoggableString(), e);
} else {
responseCallback.onFailure(RealCall.this, e);
}
} finally {
client.dispatcher().finished(this);
}
}
中间滤过了添加任务到队列的步骤,接下来几篇再去了解。可以看到最终都是调用到了getResponseWithInterceptorChain,顾名思义,正戏开始了,接下来也是okhttp中较为经典的巧妙思想-责任链模式应用
Response getResponseWithInterceptorChain() throws IOException {
// Build a full stack of interceptors.
List<Interceptor> interceptors = new ArrayList<>();
interceptors.addAll(client.interceptors());
interceptors.add(retryAndFollowUpInterceptor);
interceptors.add(new BridgeInterceptor(client.cookieJar()));
interceptors.add(new CacheInterceptor(client.internalCache()));
interceptors.add(new ConnectInterceptor(client));
if (!forWebSocket) {
interceptors.addAll(client.networkInterceptors());
}
interceptors.add(new CallServerInterceptor(forWebSocket));
Interceptor.Chain chain = new RealInterceptorChain(
interceptors, null, null, null, 0, originalRequest);
return chain.proceed(originalRequest);
}
首先是使用容器统一管理了依次包含之前我们自己配置的拦截器及RetryAndFlowUpInterceptor、BridgeInterceptor、CacheInterceptor、ConnectInterceptor、CallServerInterceptor,然后大招来了
public Response proceed(Request request, StreamAllocation streamAllocation, HttpCodec httpCodec,
RealConnection connection) throws IOException {
if (index >= interceptors.size()) throw new AssertionError();
calls++;
// If we already have a stream, confirm that the incoming request will use it.
if (this.httpCodec != null && !this.connection.supportsUrl(request.url())) {
throw new IllegalStateException("network interceptor " + interceptors.get(index - 1)
+ " must retain the same host and port");
}
// If we already have a stream, confirm that this is the only call to chain.proceed().
if (this.httpCodec != null && calls > 1) {
throw new IllegalStateException("network interceptor " + interceptors.get(index - 1)
+ " must call proceed() exactly once");
}
// Call the next interceptor in the chain.
RealInterceptorChain next = new RealInterceptorChain(
interceptors, streamAllocation, httpCodec, connection, index + 1, request);
Interceptor interceptor = interceptors.get(index);
Response response = interceptor.intercept(next);
// Confirm that the next interceptor made its required call to chain.proceed().
if (httpCodec != null && index + 1 < interceptors.size() && next.calls != 1) {
throw new IllegalStateException("network interceptor " + interceptor
+ " must call proceed() exactly once");
}
// Confirm that the intercepted response isn't null.
if (response == null) {
throw new NullPointerException("interceptor " + interceptor + " returned null");
}
return response;
}
从chain的proceed启动到结束的过程优美的诠释了责任链模式的魅力,为方便理解用一张图注释下(图比较简陋,多见谅哈)
从图中可以看出通过责任链把不同的功能实现了分层,每层只关心自己的一部分,传递顺序类似事件传递的流程,从外到里又从里及外。其核心在于这三行代码
// Call the next interceptor in the chain.
RealInterceptorChain next = new RealInterceptorChain(
interceptors, streamAllocation, httpCodec, connection, index + 1, request);
Interceptor interceptor = interceptors.get(index);
Response response = interceptor.intercept(next);
责任链从在执行第一个拦截器interceptor通过proceed方法启动时,会首先调用我们自己定义的拦截器(公共参数、headers等),但在这之前会先创建责任链的下一个承接点(即下一个interceptor),并作为参数传递给当前iterceptor,在执行当前interceptor的intercept时在合适的时间会调用责任链的proceed方法此时当前intercepter暂停并且执行下一个interceptor的intercept方法,以此类推,直到请求结果返回在从责任链的尾端陆续调用各个interceptor的剩余要执行的代码,至此整个流程完成。例如下
这里在补充一些大神的优秀总结:
缓存策略:
如果缓存不符合要求,同时也没有网络,则直接返回504(网关错误)
如果有缓存,但是没有网络,则直接返回缓存结果
如果有网络,也有符合的缓存,则执行HTTP的缓存策略
缓存开关有:pragma、Expires、cache-control
缓存校验有:Last-Modified、eTag
连接复用:
在HTTP1.0中每次请求都需要重新建立连接,每个连接负责一个资源请求。创建一个TCP连接需要3次握手,而释放连接则需要2次或4次握手。重复的创建和释放连接极大地影响了网络效率,同时也增加了系统开销
为了有效地解决这一问题,HTTP/1.1提出了Keep-Alive机制,当一个HTTP请求的数据传输结束后,TCP连接不立即释放,如果此时有新的HTTP请求,且其请求的Host和上次请求相同,则可以直接复用未释放的连接,从而省去了创建和释放TCP连接的开销,减少了网络延时
HTTP/2主要解决了以下问题:
报头压缩:HTTP/2使用HPACK压缩格式压缩请求和响应报头数据,减少不必要流量开销
请求与响应复用:HTTP/2通过引入新的二进制分帧层实现了完整的请求和响应复用,客户端和服务器可以将HTTP消息分解为互不依赖的帧,然后交错发送,最后再在另一端将其重新组装
指定数据流优先级:将 HTTP 消息分解为很多独立的帧之后,我们就可以复用多个数据流中的帧,客户端和服务器交错发送和传输这些帧的顺序就成为关键的性能决定因素。为了做到这一点,HTTP/2 标准允许每个数据流都有一个关联的权重和依赖关系
OkHttp内部通过ConnectionPool来管理连接池
连接复用清理规则:
通过RealConnection中的StreamAllocation弱引用队列是否为0来判断当前RealConnection是否空闲
ConnectionPool有一个独立的线程cleanupRunnable来清理连接池,其触发时机有两个:当连接池新增连接时、当连接闲置时(connectionBecameIdle接口被调用时)
搜集所有的空闲连接并记录KeepAlive时间,如果空闲连接超过5个或者某个连接的KeepAlive时间大于五分钟,就移除KeepAlive时间最长的连接,立刻再次扫描
如果目前还空闲连接不多于5个,就返回最大KeepAlive的剩余的时间,供下次清理
如果(全部都是活跃的连接),就返回默认的keep-alive时间,也就是5分钟后再执行清理
Okio:不需要区分字节流和字符流、增加超时机制、Buffer使用segment链保存数据,可以避免内存抖动,数据拷贝只需操作链表
同步超时:在read和write方法前面判断是否超时,可以判断整体读写超时,无法阻止单次读写超时
Socket异步超时:将AsyncTimeout组成有序链表,并且开启一个线程来监控,到达超时时间则主动关闭连接
链接:https://blog.csdn.net/wangzihan91/article/details/87625986