scala+spark

1、将Scala安装包上传到syh1虚拟机/etc/packages
   
2、进入该目录
    cd /opt/packages

3、解压到/opt/programs
    tar -zxvf scala-2.11.8.tar -C /opt/programs
    
4、修改文件/etc/profile (3个节点)
    vim /etc/profile
        末尾添加:
            export SCALA_HOME=/opt/programs/scala-2.11.8
            export PATH=$PATH:$SCALA_HOME/bin

5、刷新profile  (3个节点)
    source /etc/profile
    
6、将scala安装复制到syh1和syh2节点
    scp -r /opt/programs/scala-2.11.8 root@syh2:/opt/programs/
    scp -r /opt/programs/scala-2.11.8 root@syh3:/opt/programs/


7、将spark包上传到/opt/programs
    winSCP

8、切换目录,解压到/opt/programs/
    cd /opt/packages
    tar -zxvf spark-2.3.3-bin-hadoop2.7.tgz -C /opt/programs
    
9、进入conf文件夹。将spark-env.template复制一份spark-env.sh
    cd /opt/programs/spark-2.3.3-bin-hadoop2.7/conf
    cp spark-env.sh.template spark-env.sh

10、修改spark-env.sh,文件末尾添加以下内容
    vim spark-env.sh
        export JAVA_HOME=/opt/programs/jdk1.8.0_211
        export SCALA_HOME=/opt/programs/scala-2.11.8
        export HADOOP_HOME=/opt/programs/hadoop-2.7.7
        export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
        export SPARK_MASTER_HOST=syh1
    
11、将slaves.template文件复制一份为slaves
    cp slaves.template slaves
    
12、修改slaves,改内容
    vim slaves    
        syh2
        syh3

13、将syh1节点Spark复制到syh2,syh3节点
    scp -r /opt/programs/spark-2.3.3-bin-hadoop2.7 root@syh2:/opt/programs/
    scp -r /opt/programs/spark-2.3.3-bin-hadoop2.7 root@syh3:/opt/programs/

14、启动Spark集群
    sbin/start-all.sh

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小宏运维有点菜

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值