hadoop组件---spark实战----spark on k8s模式k8s原生方式spark2.4.4在python程序中通过conf创建sparkSession

12 篇文章 406 订阅 ¥59.90 ¥99.00
本文档详细介绍了如何在Python程序中通过conf配置连接Spark on Kubernetes,以client模式创建SparkSession。在运行过程中可能会遇到找不到pyspark模块、S3AFileSystem类未找到以及Amazon S3访问权限错误等问题,文中给出了相应的解决办法,包括添加环境变量、引入jar包和配置S3 endpoint。
摘要由CSDN通过智能技术生成

我们在之前的文章中已经尝试了使用spark on k8s。

hadoop组件—spark实战----spark on k8s模式k8s原生方式安装spark2.4.4 client mode提交python程序和运行pyspark

不过 使用的方式 是spark-submit 或者 pyspark 来启动 spark on k8s。

但是 一般 我们进行业务编程,都会 有其他的处理逻辑, 然后在 处理逻辑的一部分 才会调用 spark进行处理。

也就是说 我们需要在 程序内部去调用spark,而不是 在外部 通过shell等命令来提交。

如果我们使用的是 python,则需要在python程序中能够通过conf来创建sparkSession来使用。

本篇文章来记录 如何在 python程序中 配置conf连接 spark on k8s创建sparkSession来调用。

运行python的程序 需要与spark on k8s有很好的连通性,所以我们还是使用client 模式,使用k8s中的一个pod作为driver进行提交。

那么 我们还是在之前文章 的基础上进行 后续步骤。

详情参考

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

张小凡vip

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值