Apache Spark在CentOS下单节点的安装

Apache Spark在CentOS下单节点的安装

环境依赖

  • CentOS7,JDK8,spark-2.4.8-bin-hadoop2.7.tgz

  • 关闭防火墙

    #关闭命令
    service firewalld stop
    chkconfig firewalld off
    
  • 关闭SELINUX

    #SELINUX=enforcing
    SELINUX=disabled
    

单节点安装

下载并安装Spark

  • 下载地址

    https://spark.apache.org/downloads.html 选择对应版本

  • 将下载的文件放入/spark文件夹下并解压

    [root@localhost spark]# tar -zxvf spark-2.4.8-bin-hadoop2.7.tgz
    
  • 将解压的文件改名

    [root@localhost spark]# mv spark-2.4.8-bin-hadoop2.7 spark2.4.8
    

修改配置文件

  • 进入到conf文件路径下,将slaves.template拷贝并改名slaves

    [root@localhost conf]# cp slaves.template slaves
    
  • 将spark-env.sh.template拷贝并改名spark-env.sh,并进行编辑,再最后添加如下内容

    vim spark-env.sh,如下配置路径视情况修改

    export JAVA_HOME=/usr/local/src/jdk8
    export SPARK_HOME=/spark/spark2.4.8
    export SPARK_MASTER_IP=127.0.0.1
    export SPARK_EXECUTOR_MEMORY=1G
    
  • 修改环境变量 vim /etc/profile

    export JAVA_HOME=/usr/local/src/jdk8
    export JRE_HOME=${JAVA_HOME}/jre
    export CLASS_PATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
    export SPARK_HOME=/spark/spark2.4.8
    export PATH=${JAVA_HOME}/bin:$PATH:$SPARK_HOME/bin
    
  • 保存退出后,使配置生效:

    [root@localhost conf]# source /etc/profile
    

启动单节点Spark

  • 进入sbin路径,执行命令启动spark ./start-all.sh

    [root@localhost sbin]# ./start-all.sh
    
  • 如提示输入密码,则需要进行ssh免密登录配置,如下

    1. 如果没有配置免密登录的话每次登录到这台服务器都要输入密码

      [root@localhost spark2.4.8]# ssh 192.168.237.128
      
    2. 在本地机器(192.168.237.128)生成私钥和公钥

      [root@localhost ~]# cd ~/.ssh/ # 若没有该目录,请先执行一次ssh localhost
      [root@localhost .ssh]# ssh-keygen -t rsa # 会有提示,都按回车就可以 
      [root@localhost .ssh]# cat id_rsa.pub >> authorized_keys # 加入授权
      [root@localhost .ssh]# chmod 600 ./authorized_keys # 修改文件权限
      
    3. 将公钥上传到远端机器(在此为本机)

      [root@localhost .ssh]# ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.237.128
      
  • 启动成功,jps命令查看Master和Worker节点是否已启动

    [root@localhost sbin]# jps
    14084 Master
    14244 Jps
    14186 Worker
    

验证spark环境启动是否成功

  • 浏览器输入 ip+8080端口 如:http://192.168.237.128:8080/

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
要在CentOS 7上安装Spark,可以按照以下步骤进行操作: 1. 安装Java:确保CentOS 7上已经安装了Java。你可以使用以下命令检查Java版本: ``` java -version ``` 如果没有安装Java或者版本过低,可以使用以下命令安装OpenJDK: ``` sudo yum install java-1.8.0-openjdk-devel ``` 2. 下载Spark:前往Spark官网(https://spark.apache.org/)下载适合你的Spark版本。你可以选择预先编译的Spark包或者源代码包。 3. 解压Spark:使用以下命令解压下载的Spark包,假设你将Spark解压到`/opt`目录下: ``` sudo tar xzf spark-<version>.tgz -C /opt ``` 4. 设置环境变量:编辑`~/.bashrc`文件,将以下内容添加到文件末尾: ``` export SPARK_HOME=/opt/spark-<version> export PATH=$PATH:$SPARK_HOME/bin ``` 5. 刷新环境变量:运行以下命令使修改生效: ``` source ~/.bashrc ``` 6. 配置Spark:进入Spark目录,复制一份默认配置文件模板,并重命名为`spark-env.sh`: ``` cd $SPARK_HOME/conf cp spark-env.sh.template spark-env.sh ``` 7. 配置Spark环境变量:编辑`spark-env.sh`文件,并添加以下内容: ``` export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk ``` 8. 启动Spark:运行以下命令启动Spark集群的Master节点: ``` ./sbin/start-master.sh ``` 在浏览器中打开`http://localhost:8080`可以查看Spark的Web界面,确认Master节点已经成功启动。 以上就是在CentOS 7上安装和配置Spark的步骤。你可以根据需要,进一步配置Spark集群和Worker节点

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值