记录一下此次python+spark开发环境的搭建
jdk用的环境中已有的
python用的最新的稳定版
安装spark
选择要下载的spark版本,官网会提醒需要的hadoop版本
这里选择的3.0版本
下载完解压即可,注意解压路径不要有空格
把spark配置到环境变量中
安装hadoop
参考:
记录一下此次python+spark开发环境的搭建
jdk用的环境中已有的
python用的最新的稳定版
安装spark
选择要下载的spark版本,官网会提醒需要的hadoop版本
这里选择的3.0版本
下载完解压即可,注意解压路径不要有空格
把spark配置到环境变量中
安装hadoop
参考: