Spark(一)安装

  1. 安装过程不复杂,主要是由于没有接触过Hadoop,一下子进入Spark,有点不知所措,所以建议如果没有Hadoop经验,又想先搞Spark的同学,可以找一些视频入入门,先从一个总体的流程感知下Spark。

  2. 官网下载地址:
    http://spark.apache.org/downloads.html
    简单介绍一下:
    自己测试的话其实随便哪个版本就行,但是如果当前环境已有hadoop的版本的话,需要谨慎选择,具体看官网的解释,注意下版本就行自己测试的话其实随便哪个版本就行,但是如果当前环境已有hadoop的版本的话,需要谨慎选择,具体看官网的解释,注意下版本就行

  3. 如果没有配置Java环境,请先配置Java的环境。

  4. 节点准备:192.168.2.142(master)192.168.2.143(worker)192.168.2.144(worker)。注意SSH必须先配置好,不然节点间通信要输入密码。

  5. spark-env.sh.template 改成 spark-env.sh,配置如下参数:
    export JAVA_HOME=/usr/local/jdk1.8.0_201
    export SPARK_MASTER_HOST=192.168.2.142
    export SPARK_MASTER_PORT=7077
    export SPARK_MASTER_WEBUI_PORT=8084
    export SPARK_SSH_OPTS="-p 61122"
    export SPARK_WORKER_CORES=2
    export SPARK_WORKER_MEMORY=3g
    参数解释
    SPARK_MASTER_WEBUI_PORT 是spark的web界面的展示,能看见任务执行的情况
    SPARK_SSH_OPTS 是开放的端口,可能机器上不是使用的默认端口22,要配置一下,根据各自机器的情况配置

  6. slaves.template 改成slaves,配置如下参数:
    192.168.2.143
    192.168.2.144

  7. 将配置拷贝到其他两台机器上去。

这里的配置和Hadoop没有任何关系,本人测试时机器上没有安装任何Hadoop的东西。Spark也是可以脱离Hadoop独立部署的。配置好之后就能启动了。

启动方式有两种
9. /sbin/start-all.sh 停止 /sbin/stop.sh
10. 先单独启动master /sbin/start-master.sh 然后启动 slaves /sbin/start-slaves.sh
11. 访问web页面web界面查看机器情况
12.启动之后看下环境是不是启动成功了。可以执行examples下的例子
./bin/spark-submit --master spark://192.168.2.142:7077 --class org.apache.spark.examples.SparkPi examples/jars/spark-examples_2.12-3.0.0.jar 10
简单介绍:
–master spark://192.168.2.142:7077 设置 master地址
在这里插入图片描述
运行成功,(10是main函数的参数)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值