用户自定义函数_大数据培训

用户自定义函数

在Shell窗口中可以通过spark.udf功能用户可以自定义函数。

1、 UDF

1)创建DataFrame

scala> val df = spark.read.json(“examples/src/main/resources/people.json”)

df: org.apache.spark.sql.DataFrame = [age: bigint, name: string]

2)打印数据

3)注册UDF,功能为在数据前添加字符串

scala> spark.udf.register(“addName”, (x:String)=> “Name:”+x)

res5: org.apache.spark.sql.expressions.UserDefinedFunction = UserDefinedFunction(<function1>,StringType,Some(List(StringType)))

4)创建临时表

scala> df.createOrReplaceTempView(“people”)

5)应用UDF

scala> spark.sql(“Select addName(name), age from people”).show()

+—————–+—-+

|UDF:addName(name)| age|

+—————–+—-+

|     Name:Michael|null|

|        Name:Andy|  30|

|      Name:Justin|  19|

+—————–+—-+

2 UDAF

强类型的Dataset和弱类型的DataFrame都提供了相关的聚合函数, 如 count(),countDistinct(),avg(),max(),min()。除此之外,用户可以设定自己的自定义聚合函数。通过继承UserDefinedAggregateFunction来实现用户自定义聚合函数。

1)需求:实现求平均工资的自定义聚合函数。

2)代码实现

import org.apache.spark.sql.expressions.MutableAggregationBuffer

import org.apache.spark.sql.expressions.UserDefinedAggregateFunction

import org.apache.spark.sql.types._

import org.apache.spark.sql.Row

import org.apache.spark.sql.SparkSession

object MyAverage extends UserDefinedAggregateFunction {

// 聚合函数输入参数的数据类型

def inputSchema: StructType = StructType(StructField(“inputColumn”, LongType) :: Nil)

// 聚合缓冲区中值得数据类型

def bufferSchema: StructType = {

StructType(StructField(“sum”, LongType) :: StructField(“count”, LongType) :: Nil)

}

// 返回值的数据类型

def dataType: DataType = DoubleType

// 对于相同的输入是否一直返回相同的输出。

def deterministic: Boolean = true

// 初始化

def initialize(buffer: MutableAggregationBuffer): Unit = {

// 存工资的总额

buffer(0) = 0L

// 存工资的个数

buffer(1) = 0L

}

// 同一个分区数据合并。

def update(buffer: MutableAggregationBuffer, input: Row): Unit = {

if (!input.isNullAt(0)) {

buffer(0) = buffer.getLong(0) + input.getLong(0)

buffer(1) = buffer.getLong(1) + 1

}

}

// 不同分区间数据合并

def merge(buffer1: MutableAggregationBuffer, buffer2: Row): Unit = {

buffer1(0) = buffer1.getLong(0) + buffer2.getLong(0)

buffer1(1) = buffer1.getLong(1) + buffer2.getLong(1)

}

// 计算最终结果

def evaluate(buffer: Row): Double = buffer.getLong(0).toDouble / buffer.getLong(1)

}

3)函数使用

想要了解跟多关于大数据培训课程内容欢迎关注尚硅谷大数据培训,尚硅谷除了这些技术文章外还有免费的高质量大数据培训课程视频供广大学员下载学习。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在C++中,可以通过自定义哈希函数来为`unordered_map`提供自定义的键值对哈希算法。下面是一种常见的自定义哈希函数的实现方式: 1. 创建一个结构体或类,命名为`HashFunc`,用于封装自定义的哈希函数。 2. 在`HashFunc`中定义一个重载的函数调用运算符`operator()`,该函数接受一个键值对作为参数,并返回一个哈希值。 3. 在`operator()`函数中,根据键值对的特征,计算出一个唯一的哈希值,并返回该值。 下面是一个示例代码,展示了如何自定义`unordered_map`的哈希函数: ```cpp #include <iostream> #include <unordered_map> #include <string> // 自定义哈希函数 struct HashFunc { std::size_t operator()(const std::pair<int, std::string>& p) const { // 根据键值对的特征计算哈希值 std::size_t hashValue = std::hash<int>{}(p.first); hashValue ^= std::hash<std::string>{}(p.second) + 0x9e3779b9 + (hashValue << 6) + (hashValue >> 2); return hashValue; } }; int main() { // 创建一个使用自定义哈希函数的unordered_map std::unordered_map<std::pair<int, std::string>, int, HashFunc> myMap; // 向unordered_map中插入键值对 myMap[{1, "apple"}] = 10; myMap[{2, "banana"}] = 20; // 访问unordered_map中的元素 std::cout << myMap[{1, "apple"}] << std::endl; // 输出:10 std::cout << myMap[{2, "banana"}] << std::endl; // 输出:20 return 0; } ``` 在上述示例代码中,我们创建了一个使用自定义哈希函数`HashFunc`的`unordered_map`,并通过`std::pair<int, std::string>`作为键类型。`HashFunc`中的`operator()`函数根据键值对的特征计算哈希值,并返回该值。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值