参考了https://blog.csdn.net/m0_37937917/article/details/81159193
预装环境:
1、安装了Anaconda ,可以从清华镜像下载。
2、环境安装了java,版本要7以及更高版本
在前面的环境前提下
开始下载安装pyspark
下载 Apache Spark,访问 Apache Spark 官网下载
1、 选择一个 Spark 版本 (Choose a Spark release)
2、选择软件包类型 (Choose a package type)
3、点击下载
4、选择一个开始下载,只是镜像位置不一样而已,内容无差
一般选择最新版本就行,也就是默认选择版本
ps:这边有个我直接下载好的,需要可以直接点击链接下载
5、将你下载得到的 spark-2.4.3-bin-hadoop2.7.tgz 解压,得到 spark-2.4.3-bin-hadoop2.7
我这边下载下来的文件名是这样的,根据实际为准。
将解压下来的 spark-2.4.3-bin-hadoop2.7 文件夹放到你想放的位置,我这边是 E:\MyDownloads\pyspark
6 . 从链接下载 winutils.exe 并放到你电脑中的 spark-2.4.3-bi