Spark Standalone模式与测试

本文介绍了如何在Standalone模式下搭建Spark集群,包括配置版本、安装步骤、环境变量设置,以及集群启动和测试过程。通过在master节点运行官方PI计算案例,验证了集群的正确运行。
摘要由CSDN通过智能技术生成

版本配置:

spark-2.1.1-bin-hadoop2.7.tgz

hadoop2.7.3

 

Standalone  模式

概述

构建一个由 Master+Slave 构成的 Spark 集群,Spark 运行在集群中。

2.4.2  安装使用

spark包解压后进入目录 /usr/local/BigDataApp/spark-2.1.1-bin-hadoop2.7

1)进入 spark-2.1.1-bin-hadoop2.7 安装目录下的 conf 文件夹
2)修改配置文件名称

cp slaves.template slaves
cp spark-env.sh.template spark-env.sh
cp spark-defaults.conf.template spark-defaults.conf

# 可以cp可以mv,为了保险我使用的cp

3)修改 slave 文件,添加 work 节点:
vim slaves

master
slave1
slave2
slave3

4)修改

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值