[size=medium]我们的应用中有几个功能是定时刷新,每分钟发起ajax请求从后台获取数据。
现在的问题是response实在是太大了,response最大的一个是400k。这种数据量,网络肯定难以承受。
因此考虑使用gzip、deflate压缩,前提是客户端支持,当然现在主流浏览器都支持。其他客户端不好说。。
一般有两种做法:
1、使用应用服务器自带的压缩功能;
2、自己写一个filter,在web.xml注册,拦截响应的请求。
第一个当然最简单啦。对tomcat来说:
在Connector中添加如下属性[/size]
[size=medium]响应头的变化如下:[/size]
[size=medium]400k+的response变成40k+了。[/size]
[size=medium][b]关于HttpClient[/b]
使用HttpClient从后台获取数据,也可以这么做。不过拿到数据之后要自己写代码unzip。
tomcat的配置:http://tomcat.apache.org/tomcat-7.0-doc/config/http.html[/size]
现在的问题是response实在是太大了,response最大的一个是400k。这种数据量,网络肯定难以承受。
因此考虑使用gzip、deflate压缩,前提是客户端支持,当然现在主流浏览器都支持。其他客户端不好说。。
一般有两种做法:
1、使用应用服务器自带的压缩功能;
2、自己写一个filter,在web.xml注册,拦截响应的请求。
第一个当然最简单啦。对tomcat来说:
在Connector中添加如下属性[/size]
compression="on" compressionMinSize="2048" compressableMimeType="text/html,text/xml,text/css,text/javascript,text/plain,text/json,application/json,application/javascript,application/x-www-form-urlencoded"
[size=medium]响应头的变化如下:[/size]
响应头信息原始头信息
Content-Type application/json;charset=UTF-8
Date Sun, 07 Apr 2013 09:23:32 GMT
Server Apache-Coyote/1.1
Transfer-Encoding chunked
响应头信息原始头信息
Content-Encoding gzip
Content-Type application/json;charset=UTF-8
Date Sun, 07 Apr 2013 09:36:54 GMT
Server Apache-Coyote/1.1
Transfer-Encoding chunked
Vary Accept-Encoding
[size=medium]400k+的response变成40k+了。[/size]
[size=medium][b]关于HttpClient[/b]
使用HttpClient从后台获取数据,也可以这么做。不过拿到数据之后要自己写代码unzip。
tomcat的配置:http://tomcat.apache.org/tomcat-7.0-doc/config/http.html[/size]