1、提交python文件,遇到的难点是python文件缺乏运行所需要的依赖模块。
python3 -m pip install xx
我使用的是将anaconda打包放在HDFS上。
基础是已经有同事在linux服务器上安装好了anaconda2,很方便。
首先是将文件夹,打包成zip格式: zip -r anaconda2.zip anaconda2。然后上传文件至HDFS服务器。
对于缺乏的模块,可以使用conda 或者pip进行添加。
最后是运行命令
spark-submit \
--master yarn \
--deploy-mode client \
--num-executors 4 \
--executor-memory 5G \
--archives hdfs:///anaconda2.zip#anaconda2 \
--conf spark.yarn.appMasterEnv.PYSPARK_PYTHON=./anaconda2/anaconda2/bin/python2 \
test.py
spark-submit使用指定的python环境
参考spark Configuration,有如下描述:
配置 描述
spark.pyspark.driver.python Python binary executable to use for PySpark in driver. (default is spark.pyspark.python)
spark.pyspark.python Python binary executable to use for PySpark in both driver and executors.
使用--conf指定python环境:
--conf