1、在安装pyspark的时候,尽量先安装spark,然后cd到其下的python目录用python setup.py install进行安装
解释:因为可能因为版本问题,直接使用pip安装会导致出现问题,py4j不匹配等问题
2、尽量先安装python hadoop spark 最后安装pyspark
1、在安装pyspark的时候,尽量先安装spark,然后cd到其下的python目录用python setup.py install进行安装
解释:因为可能因为版本问题,直接使用pip安装会导致出现问题,py4j不匹配等问题
2、尽量先安装python hadoop spark 最后安装pyspark