近期打算整理下导航地图数据的编译工作,数据编译遇到的最大问题就是原数据厂商太多,如果做欧美数据,基本也就2家,tomtom和navteq。但是如果做其他国家数据,tomtom,navteq的报价普遍高。如果想找便宜的数据商,只能找local的,他们的数据格式千变万化,各有各的规范。为此如果有一套通用的数据编译处理流程,把变化限制在最小的范围内,是一家有国际化视野的公司必须考虑的事情。为此,根据本人多年数据处理经验,总结出一套规范的地图数据处理流程。把尽可能多的通用功能抽象出来。
开发环境为:
1, python/c/c++
整个流程大概分为4步:
1,原数据入库。(不同数据商,有不同的处理代码)
2,原数据转换到通用的中间数据表格。(不同数据商,有不同的处理代码)
3,通用数据表格转换为最终数据格式。(统一处理代码)
4,最终数据格式编译成psf文件。(统一处理代码)
现在,github已经托管了部分代码,万事具备,就差东风,东风就是先搞台高配置的电脑......。
如果有国际化视野的公司有此需求,欢迎联系。
//------------------------------------------------------------------------------------------------
最近完成了shape file格式的原数据的入库代码工作。发现属性的类型,在shape file中定义比较随意。比如,分析数据可以看出这个字段应该是int类型,但是shape file中使用了string的类型来存储,还有用double来存储。字符串的存储,有时候用的定长字符串,那样长度不足时就用空格来填充,但是入库的时候还是需要把这些空格都删除。等等......,这就需要导入不同的文件的时候需要一些特殊的处理。
下一步思考下,代码如何调整来支撑特殊处理。
//------------------------------------------------------------------------------------------------