文章目录 1.安装JDK 1.8,并配置环境变量2.下载安装spark,并配置环境变量3.下载安装hadoop,配置环境变量。4. pip install findspark5. conda install pyspark6. python 3.67. jupyter notebook8. 执行测试ok 1.安装JDK 1.8,并配置环境变量 2.下载安装spark,并配置环境变量 如图执行spark-shell,可以测试安装情况。 3.下载安装hadoop,配置环境变量。 再次打开cmd,执行spark-shell。如图 4. pip install findspark 5. conda install pyspark 6. python 3.6 7. jupyter notebook 8. 执行测试ok