Hive和SparkSQL自定义UDF中依赖第三方Jar包

当在Hive和SparkSQL中使用的自定义UDF函数需要依赖第三方jar包时,可以将所有jar包通过类似于fatjar等插件打在一起,但显得太麻烦、太累赘了。

其实只需要在运行时候将依赖的第三方jar包和udf函数jar包一起添加到CLASSPATH这种即可;

这里的SparkSQL指整合了Hive的。

Hive中添加第三方JAR包

1:启用hive-cli时候,使用–auxpath选项指定要添加的jar包,多个jar包以逗号分隔:

./hive –auxpath /tmp/lxw1234/lucene-core-3.6.0.jar,/tmp/lxw1234/IKAnalyzer2012_u6.jar,/tmp/lxw1234/udf.jar

2:进入hive-cli之后,使用ADD JAR命令添加jar包(推荐):

ADD JAR file:///tmp/lxw1234/lucene-core-3.6.0.jar;

ADD JAR file:///tmp/lxw1234/IKAnalyzer2012_u6.jar;

ADD JAR file:///tmp/lxw1234/udf.jar;
如果jar包放在hdfs上,则路径前面不需要加文件系统标识。

特别注意:这两种方式添加jar包时候,需要注意jar包的顺序,比如上面udf.jar中引用了IKAnalyzer2012_u6.jar中的类,而IKAnalyzer2012_u6.jar中引用了lucene-core-3.6.0.jar中的类,必须按照依赖顺序添加,否则还是会找不到类。

我测了如此。

3:其他方式,比如配置hive.aux.jars.path参数等都不推荐。

SparkSQL中添加第三方JAR包

1:如果udf jar包中没有引用第三方jar包,那么可以通过ADD JAR的方式添加;

2:如果udf jar包中引用了第三方jar包,那么使用ADD JAR添加时候仍然会报错找不到类(我测试如此)。

这时候需要通过spark-sql命令的–jars选项来指定:

./spark-sql –jars /tmp/lxw1234/lucene-core-3.6.0.jar,/tmp/lxw1234/IKAnalyzer2012_u6.jar,/tmp/lxw1234/udf.jar –master spark://lxw1234.com:7077

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用SparkSQLHive API,可以通过以下步骤实现用户自定义函数(UDF)、聚合函数(UDAF)和表生成函数(UDTF): 1. 编写自定义函数的代码,例如: ``` // UDF def myUDF(str: String): Int = { str.length } // UDAF class MyUDAF extends UserDefinedAggregateFunction { override def inputSchema: StructType = StructType(StructField("value", StringType) :: Nil) override def bufferSchema: StructType = StructType(StructField("count", IntegerType) :: Nil) override def dataType: DataType = IntegerType override def deterministic: Boolean = true override def initialize(buffer: MutableAggregationBuffer): Unit = { buffer(0) = 0 } override def update(buffer: MutableAggregationBuffer, input: Row): Unit = { buffer(0) = buffer.getInt(0) + input.getString(0).length } override def merge(buffer1: MutableAggregationBuffer, buffer2: Row): Unit = { buffer1(0) = buffer1.getInt(0) + buffer2.getInt(0) } override def evaluate(buffer: Row): Any = { buffer.getInt(0) } } // UDTF class MyUDTF extends GenericUDTF { override def initialize(args: Array[ConstantObjectInspector]): StructObjectInspector = { // 初始化代码 } override def process(args: Array[DeferedObject]): Unit = { // 处理代码 } override def close(): Unit = { // 关闭代码 } } ``` 2. 将自定义函数注册到SparkSQLHive,例如: ``` // SparkSQL注册UDF spark.udf.register("myUDF", myUDF _) // Hive注册UDF hiveContext.sql("CREATE TEMPORARY FUNCTION myUDF AS 'com.example.MyUDF'") // Hive注册UDAF hiveContext.sql("CREATE TEMPORARY FUNCTION myUDAF AS 'com.example.MyUDAF'") // Hive注册UDTF hiveContext.sql("CREATE TEMPORARY FUNCTION myUDTF AS 'com.example.MyUDTF'") ``` 3. 在SQL语句使用自定义函数,例如: ``` -- 使用SparkSQLUDF SELECT myUDF(name) FROM users -- 使用HiveUDF SELECT myUDF(name) FROM users -- 使用Hive的UDAF SELECT myUDAF(name) FROM users GROUP BY age -- 使用Hive的UDTF SELECT explode(myUDTF(name)) FROM users ``` 以上就是使用SparkSQLHive API实现用户自定义函数(UDF、UDAF、UDTF)的步骤。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值