Spark无法做对数据的顺序性有要求的计算

先说结论:Spark无法做对数据的顺序性有要求的计算,原因是RDD有多个分区,而排序只能保证各个分区数据顺序性,无法保障全局数据的顺序性。

1.缘起

这是个让我困惑很久的结论了,最终的解答源于一个问题:根据车辆的轨迹信息,计算车辆的行驶里程。

解决这个问题需要两步:

①将车辆定位信息按时间戳进行排序;

②使用reduce算子进行距离累加操作。

原代码如下所示:carLocationInfoRDD从HBase中读取数据创建而来。

//5.然后调用高德地图路线规划API,获取规划里程,与实际距离进行对比,超过阈值则异常;
                //5.1计算实际里程
                // 5.1.1:对所有轨迹信息进行排序,从先到后
                // Spark的算子sortBykey和sortBy都是针对pairRDD,所以排序先转成pairRDD,然后再调用soryBy进行排序
                JavaPairRDD<Long,CarLocationInfo> javaPairRDD = carLocationInfoRDD.mapToPair(
                        new PairFunction<CarLocationInfo, Long, CarLocationInfo>() {
                            @Override
                            public Tuple2<Long, CarLocationInfo> call(CarLocationInfo carLocationInfo) throws Exception {
                                return new Tuple2<>(carLocationInfo.getTime(), carLocationInfo);
                            }
                        }
                );
                JavaPairRDD<Long,CarLocationInfo> sortPairRDD = javaPairRDD.sortByKey();
                JavaRDD<CarLocationInfo> sortLocationInfoRDD = sortPairRDD.map(
                        new Function<Tuple2<Long, CarLocationInfo>, CarLocationInfo>() {
                            @Override
                            public CarLocationInfo call(Tuple2<Long, CarLocationInfo> tuple) throws Exception {
                                return tuple._2;
                            }
                        }
                );

                // 5.1.2:分别计算相邻两点之间的距离,并且进行累加操作
                CarLocationInfo locationInfo = sortLocationInfoRDD.reduce(
                        new Function2<CarLocationInfo, CarLocationInfo, CarLocationInfo>() {
                            @Override
                            public CarLocationInfo call(CarLocationInfo c1, CarLocationInfo c2) throws Exception {
                                CarLocationInfo locationInfo = new CarLocationInfo();
                                double mileage = CalulateTwoLanLon.getDistance(c1.getLon(), c1.getLat(), c2.getLon(), c2.getLat());
                                locationInfo.setMeileage(mileage);
                                locationInfo.setLat(c2.getLat());
                                locationInfo.setLon(c2.getLon());
                                locationInfo.setTime(c2.getTime());

                                return locationInfo;
                            }
                        }
                );

                //获取实际里程
                double meileage = locationInfo.getMeileage();
public class CarLocationInfo implements Serializable {
    private long time;
    private double lon;
    private double lat;
    private double meileage;
    private long inFenceTime;
    private long startTime;
    private long endTime;
    private int stopped;
    private boolean bFirstPoint;
    private boolean bLastPoint;
    private List<Trail> trails;
}

出现问题:相同代码,使用yarn-client模式和local模式,结果不一样。

2.解惑

咨询了一下,主要原因在于RDD有多个分区,而排序只能保证各个分区数据顺序性,无法保障全局数据的顺序性。

可以将数据repartition(1)进行排序,这样才能得到准确的结果。

代码如下:

JavaRDD<CarLocationInfo> sortLocationInfoRDD = carLocationInfoRDD.sortBy(
                    new Function<CarLocationInfo, Object>() {
                        @Override
                        public Object call(CarLocationInfo c) throws Exception {
                            return c.getTime();
                        }
                    },true,1);
            // 5.1.2:分别计算相邻两点之间的距离,并且进行累加操作
            CarLocationInfo locationInfo = sortLocationInfoRDD.reduce(
                    new Function2<CarLocationInfo, CarLocationInfo, CarLocationInfo>() {
                        @Override
                        public CarLocationInfo call(CarLocationInfo c1, CarLocationInfo c2) throws Exception {
                            CarLocationInfo locationInfo = new CarLocationInfo();
                            double mileage = c1.getMeileage() + CalulateTwoLanLon.getDistance(c1.getLon(),c1.getLat(),c2.getLon(),c2.getLat());

                            System.out.println(c1.getMeileage());
                            locationInfo.setMeileage(mileage);
                            locationInfo.setLat(c2.getLat());
                            locationInfo.setLon(c2.getLon());
                            locationInfo.setTime(c2.getTime());

                            return locationInfo;
                        }
                    }
            );

            System.out.println("里程合计:"+ locationInfo.getMeileage());

这里使用了sortBy算子,既可以进行排序,又可以实现repartititon(1),问题解决。

3.总结

这个问题迷惑的根源在于对Spark的底层实现不够清楚,需要补足。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: Spark SQL 的执行顺序通常分为以下几步: 1. 解析 SQL 语句:Spark SQL 会先将 SQL 语句解析成内部的表达式树,以便对其进行更好的优化。 2. 优化表达式树:在解析后,Spark SQL 会执行一系列优化步骤来尽量减少数据的传输和计算。这些步骤包括谓词下推、排序合并、等价类合并等。 3. 生成物理计划:在表达式树被优化后,Spark SQL 会将其转换为物理计划,这个计划描述了如何在集群上执行查询。 4. 执行物理计划:最后,Spark SQL 会执行物理计划,将结果返回给用户。 注意,在执行过程中,Spark SQL 会根据实际情况动态地调整执行计划,以提高查询的性能。 ### 回答2: Spark SQL的执行顺序包括解析阶段、逻辑计划生成阶段、优化阶段和物理执行阶段。 首先,Spark SQL解析阶段负责将输入查询解析为一棵抽象语法树,该树表示输入查询的结构和语义。解析器将文本查询转换为结构化查询表达式(SQL)语法树,以便后续处理。 其次,逻辑计划生成阶段将抽象语法树转换为逻辑计划。逻辑计划是一个逻辑查询计划的表示,它由一系列逻辑操作符组成,例如选择、投影、连接等。该阶段将解析的查询转换为一系列逻辑操作符,以便优化器进一步的优化。 然后,优化阶段应用各种优化规则和技术来改进查询的性能。优化器会考虑查询中的谓词推测、投射消除、谓词下推、连接重排列等优化方法,以提高查询的执行效率。 最后,物理执行阶段将逻辑计划转换为物理计划,该计划定义了如何在Spark集群上执行查询。物理计划包含执行计划中的数据操作和转换算子,例如过滤、分区、聚合等。物理计划可以通过Spark的执行引擎将查询分解为可执行的任务,并在分布式计算环境中执行。 总结起来,Spark SQL的执行顺序可以概括为:解析查询语句生成抽象语法树,生成逻辑计划,进行优化以提高执行效率,最后将逻辑计划转换为物理计划,并利用Spark的执行引擎在集群上执行查询任务。 ### 回答3: Spark SQL 的执行顺序主要分为以下几个步骤: 1. 解析:首先,Spark SQL 会使用语法分析器将 SQL 查询语句解析为一颗抽象语法树(AST),并进行语义分析,确保查询的正确性。 2. 逻辑计划生成:接下来,Spark SQL 会根据抽象语法树生成逻辑计划(Logical Plan),逻辑计划是一种抽象的查询执行计划,用来描述数据处理的逻辑,而不涉及具体的执行细节。 3. 优化器转换:在生成逻辑计划后,Spark SQL 会使用优化器进行一系列的优化转换操作,以提高查询性能。这些优化包括谓词下推、投影消除、过滤合并、运算重排序等,可以消除无效计算、减少数据读取和网络传输,减少查询时间。 4. 物理计划生成:优化器转换完成后,Spark SQL 会根据逻辑计划生成物理计划(Physical Plan),物理计划是具体的执行计划,它描述了如何并行执行各个任务。 5. 数据读取与处理:Spark SQL 会根据物理计划的指示,读取输入数据,并进行必要的数据预处理,如数据过滤、排序等。 6. 执行计划:接下来,Spark SQL 会将数据分发到各个执行节点上,并按照物理计划进行并行计算。 7. 结果返回:最后,Spark SQL 会将计算结果收集回驱动节点,然后返回给用户。 总之,Spark SQL 的执行顺序是:解析 -> 逻辑计划生成 -> 优化器转换 -> 物理计划生成 -> 数据读取与处理 -> 执行计划 -> 结果返回。通过这样的步骤,Spark SQL 可以高效地执行 SQL 查询,并将结果返回给用户。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值