openlayers解析GML缺陷

 不可否认openlayers的确是个好东西,尤其是他的事件封装机制更是让人爱不释手,感谢致力于openlayers开发的脚本爱好者们。但是作为一个开源的脚本框架,它也存在不少缺陷,GML解析的低效率就是一个严重的问题。
对于一个像美国states的gml文件,大小约为300K左右,有95个面对象,所有面对象一共包含11000个左右的点,这么一个gml文件,不算从WFS请求过来的时间,就是放在本地就用openlayers脚本解析,耗时也在10s以上,虽然这里机器不太好,属于上个世纪的戴尔机器,内存256,CPU2.8G,但是这么长的耗时实在是说不过去。
后来试用精简了的武汉数据,大小大概400K,只有一个面对象,不过这个面包含很多个点,16145左右,从WFS请求,结果在客户端根本就画不出来,IE死掉了。
后来查看openlayers解析gml数据的代码,很容易就可以发现问题。openlayers对于Geometry对象的组织是这样的,其实最基本的就是点,然后MultiPoint由点构成,继承自Openlayers.Geometry.Collection,而LinearRing,LineString均由Point构成,Polygon由OpenLayers.Geometry.LinearRing构成。
openlayers在解析数据时候,将所有的面、线包含的点全部都对象化为Openlayers.Geometry.Point,并首先将所有的对象读取到内存,得到一个Feature的集合,然后将这个集合提交给渲染器进行渲染。本来这个思想就行不通,加入我们通过WFS收到的文件有10M或者更大,要是把这些全部解析出来然后放到内存,那还不跑死啊,这个就像一个100M的文本文件要解析出来一样,要是等全部解析完了再处理数据那是不行的,万一数据再大呢,比如2G的数据,你还能这样全部读到内存么??
而其实将所有的点都对象化才是它效率低下的根本原因,本人做过测试,将16145个Openlayers.Geometry.Point在现有机器配置下实例化耗时6S(除了一个QQ外,机器不运行任何其他程序),这个解析效率显然是不能满足GIS应用的。
那么我认为,应该在gml数据解析得到相应Geometry对象的时候就直接将其用VML或SVG画出来,而且构建Polygon对象的时候不要涉及Point对象,及不要像这样构建
ring1 = new OpenLayers.Geometry.LinearRing(p.points);
rings.push(ring1);
var poly = new OpenLayers.Geometry.Polygon(rings);
最好是直接传入一系列坐标对直接构建Polygon。

笔者自己写了个解析GML的简单脚本程序,然后用VML进行绘制,绘制本地的states数据连加载到显示不要1S,绘制局域网WFS请求的武汉数据,连请求到显示不要两秒,性能有明显改善。但是笔者这个简单程序只能作为测试,数据组织方面肯定不能和openlayers相比。

附:VML和SVG是以DOM元素的形式存在与客户端用于适量数据的显示,因而二者都不能显示大数据量,它们只能作为一种辅助的形式显示少量的矢量数据。要想获得可以接受的效率,矢量对象的个数最多在1000个左右。VML和SVG的绘图效率比较低下,假如矢量对象比较多或者面对象的面积普遍较大,那么重绘也是比较慢的。

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值