windows中安装Spark

1、首先安装JDK并配置好相应的环境变量

2、下载Spark:http://spark.apache.org/downloads.html

选择预编译re-built版本,下载后直接使用,无需安装。下载完后解压到一个磁盘的跟目录下,如D:\Spark

配置环境变量,设置SPARK_HOME=D:\Spark,并将D:\Spark\bin 或 %SPARK_HOME%\bin添加到path中

3、下载并安装hadoop

下载地址:https://archive.apache.org/dist/hadoop/common/

下载完后建议同样解压到相应的磁盘根目录下,如D:\hadoop-2.7.1

配置环境变量,设置HADOOP_HOME=D:\hadoop-2.7.1,并将D:\hadoop-2.7.1\bin 或 %HADOOP_HOME%\bin添加到path中

此时打开一个新的dos界面,执行spark-shell,如报空指针错误,到https://github.com/steveloughran/winutils中去下载相应版本的winutils.exe,并将其放到hadoop的bin目录下。

再次打开一个新的dos界面,执行spark-shell,如果报以下错误,请执行步骤4:The root scratch dir: /tmp/hive on HDFS should be writable. Current permissions are: rwx-wx--x

4、安装Cygwin(此处参考http://www.cnblogs.com/kinglau/archive/2013/08/20/3270160.html)

下载地址:http://www.cygwin.com/

根据操作系统的需要下载32位或64的安装文件。
  1)、双击下载好的安装文件,点击下一步,选择install from internet

  2)、选择安装路径
  3)、选择local Package Directory
  4)、选择您的Internet连接方式
  5)、选择合适的安装源,点击下一步

  6)、在Select Packages界面里,Category展开net,选择如下openssh和openssl两项
  
    如果要在Eclipe上编译Hadoop,需要安装Category为Base下的sed

    如果想在Cygwin上直接修改hadoop的配置文件,可以安装Editors下的vim

  7)、点击“下一步”,等待安装完成

安装完毕后,打开Cygwin并执行:hadoop fs -chmod 777 C:/tmp/hive

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值