windows下搭建spark环境

0.前提

windows下搭建spark环境需要首先在本地安装JDK,spark支持的jdk版本为1.8及以上

1. 安装Scala

1.1. 下载Scala

下载地址

我安装的是Scala2.11.12版本

1.2. 配置环境变量

SCALA_HOME=C:\Users\ywq\soft\Scala
path=%SCALA_HOME%\bin;

1.3. 验证

# 查看版本号
scala-version
# 进入scala环境
scala

图片
如果出现上图所示结果,说明Scala安装成功

2. 安装spark

2.1. 下载spark

下载地址
image

2.2. 配置环境变量

spark不需要安装,解压后配置path环境变量即可

path=C:\Users\ywq\Downloads\spark-2.4.0-bin-hadoop2.7\spark-2.4.0-bin-hadoop2.7\bin;

2.3. 验证spark是否能正常启动

spark-shell
# 在命令行输入以上命令,中间是没有空格的

image
出现上图说明spark安装成功

3. 安装hadoop

3.1. 下载

下载地址

  • 注:这里要和spark中选择的hadoop保持一致,所以我的是hadoop2.7
    image

3.2. 安装

解压即安装

3.3. 配置环境变量

HADOOP_HOME=E:\hadoop-2.7.2\hadoop-2.7.2
path=%HADOOP_HOME%\bin;

3.4. 安装hadoop winutils,

下载链接

选择你要的hadoop版本号,你只需要下载winutils.exe,然后拷贝到Hadoop目录下的bin文件夹中。(如果你的bin目录下已经有该文件,就不必再下载了)

3.5. 验证

以管理员身份打开cmd,运行spark-shell,如果遇到访问权限等错误的话,运行 winutils.exe chmod 777 \tmp\hive

以管理员身份打开cmd,运行spark-shell,你应该看到如下界面

image

最重要的,你要看到Spark context available as ‘sc’ (master = local[*], app id = local-1507235397368).字样

这时,你的spark环境已经搭建成功了!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值