Google之前发布了网页统计报告,来源于他们索引的42亿个网页(PageRank高的网站占的权重可能会比较高):
* 网页的平均容量是320KB(包含网页里内嵌的脚本、图片、CSS),不过需要注意的是有些网站会通过robots.txt阻止Google爬虫索取CSS和JS脚本文件
*只有2/3的可压缩内容真正被压缩了,同样需要注意的是有些网站为真正的浏览器提供压缩内容,而给Google爬虫看的则是未压缩的
*80%的页面里包含10个或10个以上的同一主机里的素材
* 大部分流行网站并没有将同一主机里存放的脚本和CSS都写到一起,导致多出8个HTTP请求
* 每张网页里包含的图片数量是29.39个,加在一起有205.99KB
* 每张网页里包含7.09个外部脚本和3.22个外部CSS,平均脚本大小是57.98KB,CSS是18.72KB
* 只有1700万张网页使用了SSL加密,占总数的0.4%
* 平均网页加载速度为4.9秒,需要请求49个不同的来源
Google此举是为了提高大家对网页读取速度优化的重视程度,他们为网页开发者提供了很多帮助指南,来提高效率。Google给出的主要建议有四点:
使用Gzip压缩页面
使用HTTP缓存
优化JavaScript代码
合并脚本和CSS
其实我们会发现几乎所有的指南都是在做前端优化,而后端的内容可能没啥可以优化的,除非相关的配置,以及服务器,代码调优,成本相对就高了。