spark自定义函数

1.使用java,scala或者python等都可以编写自定义函数,编写完成后通过spark.udf函数注册即可使用
2.spark也支持hive自定义函数,使用类似create temporary function 函数名 as ‘’ 来注册自定义函数
3.自定义函数的执行逻辑: spark将在驱动器节点上序列化该函数,并把他通过网络发送到执行进程,然后执行进程就可以使用该自定义函数的方法执行具体逻辑
4.使用java和scale编写的自定义函数和使用python编写的自定义函数的区别在于性能上的差别:使用java/scala编写的自定义函数可以直接运行在执行进程的jvm中,而使用python编写的自定义函数要运行在python进程中,然后把结果返回给执行进程。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值