spark分布式环境搭建(4)spark环境搭建

spark分布式环境搭建(1)spark环境搭建

在前面的文章当中,我已经将hadoop这个分布式文件系统搭建完毕,接下来就是对spark环境进行搭建。

注意
在搭建spark之前,有几个点要注意到,因为我们用到的是spark社区提供的安装包,里面可能有些功能是不支持的,需要自己去手动编译。相关的手动编译过程,如果有空的话,我记录一下如何手动编译spark安装包(早知道他喵的就早点记录文档了,啊!好气)

另外一个,spark集群主要有下面几种调度模式

  • standalone
这个模式下面就会有那种spark://master:7077端口
  • yarn
这个模式下面,yarn只是负责资源调度的,不存在7077端口
  • mesos

接下来我想搭建一个spark on yarn模式,因为sparkstandalone模式一般做测试集群用。搭建文档有很多,有空的时候补上~

开始进行spark on yarn集群模式搭建

  • 上传spark的安装包至服务器上的目录,我这里用的是/opt
tar -zxvf spark-3.0.0-preview2-bin-hadoop2.7.tgz
mv spark-3.0.0-preview2-bin-hadoop2.7 spark
  • 配置spark
    • 环境变量
    vim /etc/profile
    ## 在下面添加
    export SPARK_HOME=/opt/spark
    export PATH=$PATH:$SPARK_HOME/bin
    ## 添加完毕
    
    ## 使配置生效
    source /etc/profile  
    
    • 修改spark配置文件
    cd /opt/spark/conf
    cp spark-env.sh.template spark-env.sh
    vim spark-env.sh
    ## 下面是配置文件
    # 设置hadoop的配置文件文件夹信息
    HADOOP_CONF_DIR=/opt/hadoop-2.7.7/etc/hadoop
    YARN_CONF_DIR=/opt/hadoop-2.7.7/etc/hadoop
    JAVA_HOME=/opt/java/jdk1.8
    
    • 配置slaves文件
    cp slaves.template slaves
    vim slaves
    ## 在文件里面添加机器的hostname
    spark1
    spark2
    spark3
    
    • 分发配置文件到各个机器上
    scp -r /opt/spark spark2:/opt
    scp -r /opt/spark spark3:/opt
    
    ##  分发环境变量文件到各个机器
    scp /etc/profile spark2:/etc
    scp /etc/profile spark3:/etc
    
    • 每台机器上面执行
    source /etc/profile
    
    • 启动spark
    /opt/spark/sbin/start-all.sh
    
    检查启动状态:
    1. 输入jps可以看到启动的角色,主节点有一个master,从节点有worker
    2. 打开浏览器,输入master节点所在的ip:8080端口号可以看到一个spark web UI
      完成!!
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Spark分布式环境的搭建过程可以按照以下步骤进行: 1. 首先,将spark-env.sh.template文件拷贝为spark-env.sh,可以使用以下命令进行拷贝:cp ./conf/spark-env.sh.template ./conf/spark-env.sh。\[1\] 2. 准备工作:建立一台虚拟机,并配置好基本通用的配置信息。可以选择Ubuntu16.04作为操作系统,选择NET模式作为虚拟机网络适配器,并手动配置静态IP地址,关闭防火墙。下载搭建Spark集群环境所需的各种软件,并保存在~/spark工作目录下。\[2\] 3. 创建hadoop用户:为了方便,可以创建一个新的系统用户名,比如"hadoop"用户。可以使用以下命令创建hadoop用户、设置密码、为hadoop用户增加管理员权限,并注销当前用户,在登陆界面使用刚创建的hadoop用户进行登陆。\[2\] 4. 安装hadoop:在~/spark目录下,解压已下载的hadoop压缩包。进入hadoop配置目录,需要修改配置文件,包括hadoop-env.sh, yarn-env.sh, slaves, core-site.xml, hdfs-site.xml, mapred-site.xml, yarn-site.xml。可以使用相应的命令对这些文件进行修改。\[3\] 以上是搭建Spark分布式环境的一般步骤,根据具体情况可能会有所不同。 #### 引用[.reference_title] - *1* [Spark 2.0分布式集群环境搭建](https://blog.csdn.net/qq_38709565/article/details/88760954)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [Spark分布式集群环境搭建](https://blog.csdn.net/qq_15349687/article/details/82748074)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值