Spark_UDF

import org.apache.spark.SparkContext
import org.apache.spark.sql.expressions.UserDefinedFunction
import org.apache.spark.sql.{DataFrame, SparkSession}

/**
  * 自定义函数:
  * UDF:User- Defined Funcation;用户定义(普通)函数,只对单行数值产生作用; 一进一出
  * UDAF:User- Defined Aggregation Funcation;用户定义聚合函数,对多行数据产生作用(sum()、avg()...),多进一出
  * UDTF:User- Defined Table-Generating Functions;用户定义表生成函数,输入一行 输出多行,一进多出
  *
  */

case class Hobbies(name:String,hobbies:String)

object UDF {
  def main(args: Array[String]): Unit = {
    val sparkSession: SparkSession = SparkSession.builder().appName("UDF").master("local[*]").getOrCreate()
    val sc: SparkContext = sparkSession.sparkContext

    import sparkSession.implicits._

    val hobbyDF: DataFrame = sc.textFile("in/hobbies.txt").map(x => x.split(" "))
      .map(x => Hobbies(x(0), x(1))).toDF()
    hobbyDF.printSchema()
    hobbyDF.show(false)    //truncate = false 显示完整内容

    //创建临时视图
    hobbyDF.createOrReplaceTempView("hobby")

    //Sql方式
    sparkSession.udf.register("hobby_num",(x:String)=>{x.split(",").size}) //注册hobby_num函数
    sparkSession.sql("select name,hobbies,hobby_num(hobbies)as hobbyNum from hobby")
      .show(false)

    println("----------------------------------")
    import org.apache.spark.sql.functions
    //DataFrame方式o/
    val hobby_num: UserDefinedFunction = functions.udf((x:String)=>{x.split(",").size}) //注册hobby_num函数
    val newHobbyDF: DataFrame = hobbyDF .withColumn("hobbyNum",hobby_num($"hobbies"))
    newHobbyDF.printSchema()
    newHobbyDF.show(false)
  }
}
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值