大数据——在CentOS 7上安装和配置Spark

在CentOS 7上安装和配置Spark

下载

Spark下载

安装

这边使用的是spark-2.4.5

在这里插入图片描述

  • 把虚拟机的目录移动到根目录下的software目录下
[root@hadoop100 ~]# cd /software
  • 把下载好的安装包拖进来
  • 压安装包到根目录下的opt目录下
[root@hadoop100 software]# tar -zxvf spark-2.4.5-bin-hadoop2.6.tgz -C /opt
  • 移动到根目录下的opt目录下
[root@hadoop100 software]# cd /opt
  • 查看目录下的文件
[root@hadoop100 opt]# ll

在这里插入图片描述

配置

  • 更改名字
[root@hadoop100 opt]# mv spark-2.4.5-bin-hadoop2.6/ spark245
  • 移动到spark245目录下的conf目录下
[root@hadoop100 spark245]# cd ./conf/
  • 查看目录下的文件
[root@hadoop100 conf]# ls

在这里插入图片描述

  • 拷贝一份spark-env.sh.template文件到此目录下,并改名
[root@hadoop100 conf]# cp spark-env.sh.template /opt/spark245/conf/spark-env.sh
  • 再次查看目录下的文件
[root@hadoop100 conf]# ls

在这里插入图片描述

  • 进入spark-env.sh文件
[root@hadoop100 conf]# vi spark-env.sh
  • 添加如下
export JAVA_HOME=/opt/java8
export SCALA_HOME=/opt/scala211
export SPARK_HOME=/opt/spark245
export SPARK_MASTER_IP=hadoop100
export SPARK_EXECUTOR_MEMORY=1G

在这里插入图片描述

  • 保存退出
  • 拷贝一份slaves.template文件到此目录下,并改名
[root@hadoop100 conf]# cp slaves.template slaves
  • 进入slaveswe文件(这里是要配置spark集群所需要配置的)

在这里插入图片描述

  • 配置环境变量
[root@hadoop100 conf]# vi /etc/profile
  • 添加如下
export SPARK_HOME=/opt/spark245
export PATH=$PATH:$SPARK_HOME/bin

在这里插入图片描述

  • 保存退出,使环境变量生效
[root@hadoop100 conf]# source /etc/profile

使用

一种方式启动

  • 本机启动spark
[root@hadoop100 bin]# spark-shell

在这里插入图片描述

另一种方式启动

  • 进入spark目录下的sbin目录下
[root@hadoop100 spark245]# cd sbin/
  • 启动spark
[root@hadoop100 sbin]# ./start-all.sh

在这里插入图片描述

  • 查看进程
[root@hadoop100 sbin]# jps

在这里插入图片描述

  • 再使用spark-shell启动
[root@hadoop100 bin]# spark-shell

在这里插入图片描述

  • 再次查看一下进程
[root@hadoop100 sbin]# jps

在这里插入图片描述

  • 退出CTRL+C
  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值