集群搭建以及测试
Standalone搭建
在node01、node02、node03三台虚拟机上搭建spark集群
下载安装包,将安装包上传到node01上并解压
上传安装包
解压命令:tar -zxvf spark-1.6.0-bin-hadoop2.6.tgz
修改解压包名称命令:mv spark-1.6.0-bin-hadoop2.6 spark-1.6.0
修改配置文件
spark-env.sh
需要修改一下几个参数
SPARK_MASTER_IP:master的ip
SPARK_MASTER_PORT:提交任务的端口,默认是7077
SPARK_WORKER_CORES:每个worker从节点能够支配的core的个数
SPARK_WORKER_MEMORY:每个worker从节点能够支配的内存数
进入文件所在目录命令:cd spark-1.6.0/conf/
修改文件名称命令:mv spark-env.sh.template spark-env.sh
编辑spark-env.sh命令:vi spark-env.sh
在该文件中配置如下内容
export SPARK_MASTER_IP=node01
export SPARK_MASTER_PORT=7077
export SPARK_WORKER_CORES=2
export SPARK_WORKER_MEMORY=3g
slaves
修改slaves.template文件,添加从节点。保存。
修改文件名称命令:mv slaves.template slaves
编辑文件命令:vi slaves
下发文件到node02、node03上
下发命令:
scp -r spark-1.6.0 root@node02:/root/
scp -r spark-1.6.0 root@node03:/roo