SparkSQL下UDF的使用

在hive中UDF函数可以在使用add jar 的方法添加,然后createTemporary function aaa as 包名.类名创建临时函数,在spark-shell这样使用会报java.lang.ClassNotFoundException: com.luogankun.udf.HelloUDF。

这时将jar包放到(1)spark jars下 或(2)配置将jar包的路径配置到spark-env.sh的SPARK_CLASSPATH中,形如:
export SPARK_CLASSPATH=$SPARK_CLASSPATH:/home/hadoop/software/mysql-connector-java-5.1.27-bin.jar:/home/hadoop/lib/weekday.jar

sql("create temporary function weekday as 'cn.xdl.hive.WeekDay'")就可以直接创建临时函数

如下使用:
sql("select weekday(vdate),count(distinct(uid)) from useraction1 group by weekday(vdate) order by count(distinct(uid))").show


  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值