spark在伪分布式和完全分布式的配置

Hadoop伪分布式下安装配置Spark

1.安装并配置Spark

tar xzvf 解压spark压缩包

vim /etc/profile 配置spark环境变量

2.配置spark-env.sh文件(先cp复制一份修改重命名后缀)

cp /opt/spark/conf/spark-env.sh.tempalte /opt/spark/conf/spark-env.sh
vim /opt/spark/conf/spark-env.sh

增加内容:

export JAVA_HOME=/opt/jdk(jdk安装路径)
HADOOP_HOME=/opt/hadoop(hadoop安装路径)
SCALA_HOME=/opt/scala(scalca安装路径)
HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop(hadoop配置文件路径)
SPARK_MASTER_IP=localhost(本机主机名)
SPARK_WORKER_MEMORY=1g(内存)

3.查看hadoop伪分布式是否启动成功

start-all.sh

4.进入spark/sbin启动spark

/opt/spark/sbin/start-all.sh

5.查看spark

spark-shell 启动
:quit 退出

6.访问http://(虚拟机的IP):8080

进入spark的web界面

Hadoop完全分布式下安装配置Spark

1.安装并配置Spark

tar xzvf 解压spark压缩包

vim /etc/profile 配置spark环境变量

2.配置spark-env.sh文件(先cp复制一份修改重命名后缀)

cp /opt/spark/conf/spark-env.sh.tempalte /opt/spark/conf/spark-env.sh
vim /opt/spark/conf/spark-env.sh

增加内容:

export JAVA_HOME=/opt/jdk(jdk安装路径)
HADOOP_HOME=/opt/hadoop(hadoop安装路径)
SCALA_HOME=/opt/scala(scalca安装路径)
HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop(hadoop配置文件路径)
SPARK_MASTER_IP=localhost(本机主机名)
SPARK_WORKER_MEMORY=1g(内存)

3.修改slaves文件

先行复制一份无后缀slaves文件

cp /opt/spark/conf/slaves.template
/opt/spark/conf/slaves

在slaves文件中删除原有添加三台主机名

4.将环境变量profile文件和spark文件夹传输到其他两台主机上

scp 命令 scp -r命令 传输

5.在其他两台主机上生效文件profile

source /etc/profile

6.查看hadoop完全分布式是否启动成功

start-all.sh

7.进入spark/sbin启动spark

/opt/spark/sbin/start-all.sh

8.查看spark

spark-shell 启动
:quit 退出

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

令人作呕的溏心蛋

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值