1、首先下载所需要的安装包
分别是 scala-2.11.11 ,hadoop2.7,spark-2.3.1、winutls工具类
链接:https://pan.baidu.com/s/1Tv-N7lQUd2T24HncwSZ5Ag 密码:z9ex
2、先安装scala
直接运行安装包即可,自动配置环境变量
3、配置spark
直接解压即可
配置spark环境变量
在path下配置D:\DTEve\spark\spark-2.3.1-bin-hadoop2.7\bin
这里是我的目录,改成自己spark解压的地址即可
然后可以直接测试一下打开cmd 输入 spark-shell测试一下
如果报错了没关系,只要不是命令找不到就行
4、配置hadoop-2.7