spark分布式环境搭建(待整理完整)

主要过程有:

一、安装前的准备:

先将26作为主节点搭建环境。以下目录都基于/home/hml/xtu1/

  192.168.1.126  master

  192.168.1.123  slave1

1.      环境:

Ubuntu 17.0

JDK1.8.0_161

Scala-2.11.8

Hadoop-2.7.4

Spark-2.2.1-bin-hadoop2.7

2.      安装vim编辑器(dmdb-26)

3.      安装SSH,配置SSH免密码登录

4.      Ubuntu下设置静态IP

5.      本机电脑安装好xshell和xftp

二、安装过程:

1.      JDK的安装与配置

2.      Scale的安装与配置

3.      Hadoop的安装与配置

4.      Spark的安装与配置

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

实验步骤记录:

0.      修改主机名和添加主机IP与主机名映射

1)  将之前的修改为dmdb-26:

$sudo vim /etc/hostname

2)  修改127.0.0.1后面的主机名:

$sudo vim /etc/hosts     

3)添加映射,在后面添加: $sudo vim /etc/hosts

192.168.1.126 dmdb-26

192.168.1.123 dmdb-23 slave1

1.     安装SSH,配置SSH免密码登录

进入主目录/home/hml

1)  查看是否安装了SSH:

$sudo ps -e |grep ssh

2)  进入root目录:

$cd /home/hml

3)  $sudo apt-get update

4)  客户端和服务端都安装:

$sudo apt-get install openssh-server

5)  测试是否可以登录:

$ssh –l dmdb 192.168.1.126

6)  开始配置免密码登录:

$cd /home/hml/

$ssh-keygen -t rsa -P ""

7)  将公钥追加到authorized_keys 文件中:

$ cat .ssh/id_rsa.pub >> .ssh/authorized_keys

8)  赋予authorized_keys 文件权限:

$chmod600 .ssh/authorized_keys

9)  验证免密码登录:

$ssh localhost

2. Ubuntu下设置静态IP

1)  查看网卡名称,知道dmdb-26网卡为enp9s0f0

$ifconfig

2)  查看默认网关地址,192.168.1.1

$route

3)  在下面文件中注释掉之前的配置,并添加以下内容:

$vim /etc/network/interfaces

4)  重启使静态IP设置生效。

 3. JDK的安装与配置

1)卸载jdk:$rpm -e jdk (强制卸载:rpm -e –nodepsjdk)

  sudo apt-get remove openjdk

2)进入路径:$cd /home/hml/xtu1(创建目录:$sudo mkdir /usr/lib/jvm)

3)解压:$sudo tar -xzf jdk-8u161-linux-x64.tar.gz

其他格式的解压命令:

tar:tar –xvf

gz:gzip -d /gunzip

tar.gz和tgz: tar -xzf

4)修改配置文件:$sudo vim /etc/profile

添加:

exportJAVA_HOME=/home/hml//xtu1/jdk1.8.0_161

exportJRE_HOME=/home/hml/xtu1/jdk1.8.0_161/jre

exportPATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH

export CLASSPATH=$CLASSPATH:.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib

5)使配置文件生效:$source /etc/profile

6)验证:$java -version

4.Scala的安装与配置

Scala安装过程与JDK类似。

1)创建目录:sudo mkdir /home/hml/xtu1/scala

2)解压到目录/home/hml/xtu1/scala :

$sudo tar -xzf scala-2.11.8.tgz -C/home/hml/xtu1/scala

3)环境变量的配置如下:

$sudo vim /etc/profile

添加:

exportSCALA_HOME=/home/hml/xtu1/scala-2.11.8

export PATH=$PATH:$SCALA_HOME/bin

4)最后使环境变量生效:

$source/etc/profile

 

5.hadoop的安装与配置

1.解压到/home/hml/xtu1/:

$sudo tar -xzf hadoop-2.7.4.tar.gz-C /home/hml/xtu1

2.配置环境变量  

   $ sudo vim /etc/profile

添加:

exportHADOOP_HOME=/home/hml/xtu1/hadoop-2.7.4

exportPATH=$PATH:$HADOOP_HOME/bin

exportPATH=$PATH:$HADOOP_HOME/sbin

exportHADOOP_MAPRED_HOME=${HADOOP_HOME}

exportHADOOP_COMMON_HOME=${HADOOP_HOME}

exportHADOOP_HDFS_HOME=${HADOOP_HOME}

exportHADOOP_YARN_HOME=${HADOOP_HOME}

3.使环境变量生效:$ source /etc/profile   

4. 在/home/hml/xtu1/hadoop目录中创建几个文件夹:

$cd /usr/local/hadoop

/usr/local/hadoop$mkdir tmp

/usr/local/hadoop$mkdir tmp/dfs

/usr/local/hadoop$mkdir tmp/dfs/data

/usr/local/hadoop$mkdir tmp/dfs/name

/usr/local/hadoop$sudo chown hadoop:hadoop tmp

 

5.进入目录/home/hml/xtu1/hadoop-2.7.4/etc/hadoop/,在该目录下配置7个文件:hadoop-env.sh,core-site.xml,hdfs-site.xml,mapred-site.xml,yarn-site.xml,yarn-env.sh,slaves,masters。参照各文件的xxx.xml.template(对应的模板)修改。

(1)hadoop-env.sh

exportJAVA_HOME=/home/hml/xtu1/jdk1.8.0_161

(2)core-site.xml

(3)hdfs-site.xml

(4)mapred-site.xml

(5)yarn-site.xml

(6)slaves:$sudo vim slaves

    将localhost去掉,加上dmdb-23等子节点,一行一个。

(7)masters:sudo vim masters

    写上主节点dmdb-26。

(8)验证hadoop安装好:

1)第一次启动Hadoop需要初始化,切换到/home/hml/xtu1/hadoop-2.7.4/bin目录下输入:$hadoop namenode -format

2)切换到/home/hml//xtu1/hadoop-2.7.4/sbin目录,启动HDFS输入:

     $start-dfs.sh

(这里还没有配置dmdb-23,所以这里显示找不到)

    3)启动YARN,输入:$start-yarn.sh

 

6.spark的安装与配置

1.       进入目录:$cd /home/hml/xtu1

2.       解压到目录/home/hml/xtu1/spark-2.2.1-bin-hadoop2.7 

$sudo tar -xzf spark-2.2.1-bin-hadoop2.7.tgz -C/home/hml/xtu1

3.       配置环境变量

$ sudo vi /etc/profile

配置如下:

export SPARK_HOME=/home/hml//xtu1/spark-2.2.1-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin

4.       使变量生效:$ source /etc/profile  

5.       进入spark-2.2.1-bin-hadoop2.7/conf/目录,编辑两个文件:spark-env.sh,slaves

1)$ sudo vim /conf/spark-env.sh

2)$ vim slaves

 增加所有的子节点主机名,dmdb-23,一行一个

6. 在spark-1.1.0/sbin/目录下启动spark集群(仅在master结点)

$ start-all.sh

7.将spark  master节点环境复制到其他slave节点

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Spark分布式环境的搭建过程可以按照以下步骤进行: 1. 首先,将spark-env.sh.template文件拷贝为spark-env.sh,可以使用以下命令进行拷贝:cp ./conf/spark-env.sh.template ./conf/spark-env.sh。\[1\] 2. 准备工作:建立一台虚拟机,并配置好基本通用的配置信息。可以选择Ubuntu16.04作为操作系统,选择NET模式作为虚拟机网络适配器,并手动配置静态IP地址,关闭防火墙。下载搭建Spark集群环境所需的各种软件,并保存在~/spark工作目录下。\[2\] 3. 创建hadoop用户:为了方便,可以创建一个新的系统用户名,比如"hadoop"用户。可以使用以下命令创建hadoop用户、设置密码、为hadoop用户增加管理员权限,并注销当前用户,在登陆界面使用刚创建的hadoop用户进行登陆。\[2\] 4. 安装hadoop:在~/spark目录下,解压已下载的hadoop压缩包。进入hadoop配置目录,需要修改配置文件,包括hadoop-env.sh, yarn-env.sh, slaves, core-site.xml, hdfs-site.xml, mapred-site.xml, yarn-site.xml。可以使用相应的命令对这些文件进行修改。\[3\] 以上是搭建Spark分布式环境的一般步骤,根据具体情况可能会有所不同。 #### 引用[.reference_title] - *1* [Spark 2.0分布式集群环境搭建](https://blog.csdn.net/qq_38709565/article/details/88760954)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [Spark分布式集群环境搭建](https://blog.csdn.net/qq_15349687/article/details/82748074)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值