spark-2.4.5-bin-2.6.0-cdh5.15.1环境搭建:Local模式和StandAlone

下载源码进行编译

这一篇中,介绍了如何下载源码进行编译,编译好的文件名为spark-2.4.5-bin-2.6.0-cdh5.15.1
对文件进行解压:tar -xvf spark-2.4.5-bin-2.6.0-cdh5.15.1.tgz -C ~/app

配置环境变量

修改.bashrc文件:

# SPARK_HOME 2.4.5
SPARK_HOME=/home/iie4bu/app/spark-2.4.5-bin-2.6.0-cdh5.15.1

PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HIVE_HOME/bin:$SPARK_HOME/bin:$PATH

运行local模式

使用命令:./spark-shell master local[2]
master 用来指定使用什么模式,这里使用Local模式,[2]表示两个线程。
在这里插入图片描述
在这里插入图片描述
说明运行成功!

运行StandAlone模式

复制一个conf/spark-env.sh

SPARK_MASTER_HOST=manager
SPARK_WORKER_CORES=2
SPARK_WORKER_MEMORY=2g
SPARK_WORKER_INSTANCES=1

spark的Standalone模式与Hadoop的HDFS模式类似,是一个Master加多个worker。
复制修改slavesmanager
修改sbin/spark-config.sh,添加JAVA_HOME:

export JAVA_HOME=/home/iie4bu/app/jdk1.8.0_101

运行:sbin/start-all.sh:
在这里插入图片描述
输入jps查看:
在这里插入图片描述
可以看到有一个master和一个worker.
浏览器访问ip:8080可以查看
在这里插入图片描述
可以看到Alive Workers: 1,因为我们之前设置了SPARK_WORKER_INSTANCES=1
当我们修改了这个值:SPARK_WORKER_INSTANCES=2时,重启spark:
sbin/start-all.sh,可以看到有两个worker
在这里插入图片描述
在浏览器中可以看到:
在这里插入图片描述
看到Alive Worker:2 说明我们的配置生效了。

运行一个Application

运行命令:./spark-shell --master spark://manager:7077
在这里插入图片描述
可以看到已经启动成功,这时查看浏览器:
在这里插入图片描述
可以看到已经有一个Application在运行了,这个Application的name是spark-shell,并且这个Application占用了4个Cores,和1024M的内存。
由于现在的Cores已经被这个spark-shell用光了,所以当我们再启动一个spark-shell时:
在这里插入图片描述
这时查看浏览器:
在这里插入图片描述
看到第二次启动的spark-shell没有分配到cores,状态是WAITING,无法运行。
那么能不能设置不把core用光呢?
可以:设置--executor-cores NUM--executor-memory MEM

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值