pycharm搭建远程spark调试环境
内容描述
之前一直在单机伪分布式的spark环境中调试,操作系统是windows,现在需要连接到集群环境中,CentOS7,Python3.7.1.
集群已经用ambari搭建好了Hadoop生态。
pyspark的安装
由于目标集群已经安装好了spark,因此这里只需要配置环境变量即可。
下面的操作,在spark的master机器上做即可。
在/etc/profile最后加上:
export SPARK_HOME=/usr/hdp/current/spark2-client
export PATH=$SPARK_HOME/bin:/usr/local/python3/ext_pkg/pandoc-2.4/bin:$PATH

本文介绍了如何在PyCharm中搭建远程Spark调试环境,详细步骤包括在CentOS7上安装pyspark和python3,解决python3与zlib、libffi的依赖问题,以及在Windows客户端配置PyCharm远程编译器。
最低0.47元/天 解锁文章
649

被折叠的 条评论
为什么被折叠?



