Table.Group函数使用自定义函数进行汇总。

今天用一个例子讲解一下在Power Query中,Table.Group()函数如何使用自定义函数进行汇总。

该函数的基本语法和使用示例参考:

我们看上图示例可以明白,这个函数是以第二参数作为分组字段(或者字段列表),第三参数就是一个列表。示例中“total”就是汇总后结果的字段名称。那么是对哪个字段分组列表进行什么样的汇总方式呢?我们看到List.Sum([price]),就可以明白是对表中的price字段进行分组加和的汇总。如果我们使用自定义函数fx我们就要知道我们传递的参数是什么。从list.sum求的是根据分组后的每个子表进行price的求和。那么我们就知道我们传递给函数的是分组的列表。

那么如何使用自定义函数呢?我们来看一下如下图所示的例子。我们要求的是按照字母统计数字的个数以及数字组合列表。

 求次数比较简单,对分组的字段使用List.Count()函数就能搞定。那么如何进行合并呢。我们有Text.Combine()函数可以合并列表中的成员。这里因为是数字,我们不能直接合并,需要将成员转化为text类型再进行合并。因为上面已经说明汇总是对分组后的字段列表的某种形式的聚合。我们需要传递的参数应该是一个list的类型。看下面的定义方式:

fx=(x as list)=>Text.Combine(List.Transform(x,each Text.From(_)),",")

这个自定义函数很好理解.就是将list里面的每个成员转化为text类型,然后以逗号进行连接起来。

最后整个汇总的M代码如下:

let
    源 = Excel.CurrentWorkbook(){[Name="表1"]}[Content],
    fx=(x as list)=>Text.Combine(List.Transform(x,each Text.From(_)),","),
    data=Table.Group(源,"字母",{{"次数",each List.Count([数字])},{"数字合并",each fx([数字])}})
in
    data

结果如图所示,符合预期:

  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 可以使用Java语言编写Hive的自定义UDAF函数,但需要使用Hadoop Streaming API和Hadoop MapReduce API,并且需要确保实现的UDAF函数符合Hive的语义规范。 ### 回答2: Hive是一个开源的大数据仓库系统,用于处理和分析大规模结构化数据。Hive提供了丰富的函数库,以支持各种用例。除了内置函数外,Hive还支持自定义函数,其中包括自定义UDAF(用户定义的聚合函数)。 使用Java编写Hive的自定义UDAF函数可以按照以下步骤进行: 1. 创建一个Java类,用于实现自定义的UDAF函数。这个类需要继承Hive的GenericUDAFResolver2接口,并实现其中的方法。 2. 在Java类中,需要定义输入参数类型、中间状态类型和输出类型。根据自定义UDAF函数的需求,可以使用Hive提供的数据类型,如IntWritable、DoubleWritable等。 3. 在Java类中,需要实现initialize、iterate、merge和terminatePartial等方法,用于初始化和处理计算逻辑。 - initialize方法用于初始化中间状态; - iterate方法用于迭代处理每一行输入数据; - merge方法用于合并不同mapper或reducer的中间状态; - terminatePartial方法用于返回部分聚合结果。 4. 在Java类中,需要实现terminate方法,用于返回最终的聚合结果。 5. 编译Java类,并将生成的jar文件添加到Hive的classpath中。 6. 在Hive中,使用CREATE FUNCTION语句创建自定义UDAF函数,并指定使用的jar文件和Java类名。 7. 在Hive中,可以使用自定义UDAF函数进行聚合操作,例如使用SELECT语句。 编写Java类时,需要根据自定义UDAF函数的需求进行逻辑的实现。在编写完成后,应当进行测试和调试,确保函数的正确性和性能。 通过以上步骤,就可以使用Java编写Hive的自定义UDAF函数,以满足特定的需求,对大规模结构化数据进行聚合和分析。 ### 回答3: 使用Java编写Hive的自定义UDAF函数需要以下步骤: 1. 创建一个Java类,实现Hive中的GenericUDAFEvaluator接口。该接口定义了自定义UDAF函数的行为。 2. 在类中实现五个方法:init()、iterate()、terminatePartial()、merge()和terminate()。 - init()方法用于初始化函数的内部状态。 - iterate()方法用于每次处理输入值。 - terminatePartial()方法在部分聚合完成后返回部分结果。 - merge()方法用于合并部分结果。 - terminate()方法在整个聚合完成后返回最终结果。 3. 在类中定义一个静态内部类,实现AggregationBuffer接口,用于存储聚合结果的中间状态。 4. 在类中重写toString()方法,用于返回自定义聚合函数的名称。 5. 在Hive中使用CREATE FUNCTION语句注册自定义UDAF函数,指定Java类的路径和函数名称。 下面是一个示例: ```java import org.apache.hadoop.hive.ql.exec.UDAF; import org.apache.hadoop.hive.ql.exec.UDAFEvaluator; import org.apache.hadoop.hive.ql.metadata.HiveException; import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector; import org.apache.hadoop.hive.serde2.objectinspector.StandardListObjectInspector; import org.apache.hadoop.hive.serde2.objectinspector.StandardPrimitiveObjectInspector; import java.util.ArrayList; import java.util.List; public class CustomUDAF extends UDAF { public static class Evaluator implements UDAFEvaluator { private List<Double> values; @Override public void init() throws HiveException { values = new ArrayList<Double>(); } // 输入值处理 public boolean iterate(Double value) throws HiveException { if (value != null) { values.add(value); } return true; } // 返回部分结果 public List<Double> terminatePartial() { return values; } // 合并部分结果 public boolean merge(List<Double> other) { if (other != null) { values.addAll(other); } return true; } // 返回最终结果 public Double terminate() { Double sum = 0.0; for (Double value : values) { sum += value; } return sum; } // 定义输入和输出值的类型 public ObjectInspector init(Mode m, ObjectInspector[] parameters) throws HiveException { return StandardListObjectInspector .getListObjectInspector(StandardPrimitiveObjectInspector.PrimitiveCategory.DOUBLE); } } @Override public String toString() { return "custom_udaf"; } } ``` 在Hive中使用以下命令注册UDAF函数: ```sql CREATE FUNCTION custom_udaf AS 'com.example.CustomUDAF' USING JAR 'path/to/custom_udaf.jar'; ``` 然后可以在Hive中使用自定义UDAF函数进行聚合操作,例如: ```sql SELECT column, custom_udaf(column) AS sum FROM table GROUP BY column; ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值