SparkSQL-用户自定义函数(UDF)

1.准备工作

spark版本3.0.0

<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-sql_2.12</artifactId>
    <version>3.0.0</version>
</dependency>

读取文件数据如下:

2.基本用法

2.1直接注册udf

object SparkSQL_UDF {
  def main(args: Array[String]): Unit = {
    val sparkConf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("udf")
    val spark: SparkSession = SparkSession.builder().config(sparkConf).getOrCreate()

    val inputDF: DataFrame = spark.read.json("datas\\student.json")
    inputDF.createOrReplaceTempView("student")

    //注册udf
    spark.udf.register("prefix", (name:String) => {
      "hnu:" + name
    })
    //这样查询出来的每个name都有hnu:的前缀
    spark.sql("select prefix(name) from student").show()
    spark.close()
  }
}

其实我们一般什么情况用自定义函数用得比较多呢?就是涉及到聚合操作的时候,虽然sql中提供了avg(),count()等等函数,但我们这里可以模仿着实现以下求平均数这个聚合函数功能。

2.2继承UserDefinedAggregateFunction(3.x后不推荐使用)

object SparkSQL_UDAF_1 {
  def main(args: Array[String]): Unit = {
    val sparkConf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("udf")
    val spark: SparkSession = SparkSession.builder().config(sparkConf).getOrCreate()

    val inputDF: DataFrame = spark.read.json("datas\\student.json")
    inputDF.createOrReplaceTempView("student")

    spark.udf.register("myAvg", new MyAvg)

    spark.sql("select myAvg(age) from student").show()

  }
}

class MyAvg extends UserDefinedAggregateFunction {
  //输入的数据格式
  override def inputSchema: StructType = {
    StructType{
      Array(
        StructField("age", DoubleType)
      )
    }
  }

  //缓冲区用于做计算的数据结构(保存总和和个数用于求平均值)
  override def bufferSchema: StructType = {
    StructType{
      Array(
        StructField("sum", DoubleType),
        StructField("count", DoubleType)
      )
    }
  }

  //输出数据类型,平均值
  override def dataType: DataType = DoubleType

  //函数稳定性,相同输入总是返回相同结果
  override def deterministic: Boolean = true

  //缓冲区初始化
  override def initialize(buffer: MutableAggregationBuffer): Unit = {
    //update(i,value)表示更新缓冲区中索引为i的值为value
    buffer.update(0, 0.0)
    buffer.update(1, 0.0)
  }

  //根据输入的值更新缓冲区
  override def update(buffer: MutableAggregationBuffer, input: Row): Unit = {
    //总和求和,个数加1
    buffer.update(0, buffer.getDouble(0) + input.getDouble(0))
    buffer.update(1, buffer.getDouble(1) + 1)
  }

  //合并缓冲区
  override def merge(buffer1: MutableAggregationBuffer, buffer2: Row): Unit = {
    buffer1.update(0, buffer1.getDouble(0) + buffer2.getDouble(0))
    buffer1.update(1, buffer1.getDouble(1) + buffer2.getDouble(1))
  }

  //计算平均值
  override def evaluate(buffer: Row): Any = {
    buffer.getDouble(0) / buffer.getDouble(1)
  }
}

2.3继承Aggregator(3.X版本后推荐)

object SparkSQL_UDAF_2 {
  def main(args: Array[String]): Unit = {
    val sparkConf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("udf")
    val spark: SparkSession = SparkSession.builder().config(sparkConf).getOrCreate()

    val inputDF: DataFrame = spark.read.json("datas\\student.json")
    inputDF.createOrReplaceTempView("student")
    spark.udf.register("myAvg", functions.udaf(new MyAvg2))

    spark.sql("select myAvg(age) from student").show()
  }
}
case class Buffer (
  var sum: Double,
  var count: Double
)

//三个类型分别为输入值类型、缓冲区类型、输出结果类型
class MyAvg2 extends Aggregator[Double, Buffer, Double] {
  //初始化"0"值
  override def zero: Buffer = {
    Buffer(0.0, 0.0)
  }

  //根据输入数据进行聚合
  override def reduce(b: Buffer, a: Double): Buffer = {
    b.sum += a
    b.count += 1
    b
  }

  //合并缓冲区
  override def merge(b1: Buffer, b2: Buffer): Buffer = {
    b1.sum += b2.sum
    b1.count += b2.count
    b1
  }

  //计算结果
  override def finish(reduction: Buffer): Double = reduction.sum / reduction.count

  //编码,自定义的类是product,scala存在的类就是scala+类
  override def bufferEncoder: Encoder[Buffer] = Encoders.product

  override def outputEncoder: Encoder[Double] = Encoders.scalaDouble
}

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值