首先,安装好pycharm和anaconda(这里使用anaconda2为例)。接着,下载对应版本的hadoop和spark平台并进行配置。
在这里,我们将hadoop解压到:D:\hadoop-2.7.2test
然后将spark解压到:D:\spark-2.0.0-hadoop2.7
1、在win下的配置与linux下不同,主要在于配置cmd脚本。想省心的同学可以直接下载我配置好的版本,链接见文末。
在spark的conf那新增spark-env.cmd文件并编辑如下:
set HADOOP_HOME=D:\hadoop-2.7.2test
set HADOOP_CONF_DIR=D:\hadoop-2.7.2test\etc\hadoop
set SPARK_YARN_USER_ENV=