hadoop和spark HA部署

hadoopspark主备HA配置说明

1.  环境说明

  集群中包括4个节点:2Master(主备)2Salve,节点之间局域网连接,可以相互ping。节点IP地址分布如下:

  

Hadoop HA集群:

IP地址

hostname

role

10.12.0.240

master

ActiveNameNode

10.12.0.243 

standyMaster

StandByNameNode

10.12.0.241

slave1

DataNode1

10.12.0.242

slave2

DataNode2

 

 





Spark HA集群:

IP地址

hostname

role

10.12.0.240

master

Master

10.12.0.243

standyMaster

StandBy Master

10.12.0.241

slave1

worker

10.12.0.242

slave2

worker

 

 




2.  环境配置

2.1关闭防火墙

在root用户关闭防火墙

永久关闭防火墙,重启后不变:

chkconfig iptablesoff/on                     

 

  

关闭防火墙:( 即时生效,重启后失效。先关闭防火墙,再永久关闭防火墙。)           

service iptables stop       

/etc/init.d/iptables stauts    查看防火墙状态    

 

2.2创建用户组(CentOS 6.5)

[root@master ~]#groupadd hadoop

[root@master ~]#useradd -g hadoop hadoop

[root@master ~]#passwd hadoop

[root@master ~]# 两次输入密码

 

测试创建用户

[root@master ~]# suhadoop

[hadoop@master root]$

 

su root 回到root用户

vim /etc/sudoers

为hadoop用户分配权限,需先修改sudoers文件的权限。

执行命令: chmod u+w /etc/sudoers

再添加:hadoop ALL=(ALL)       ALL

 

2.3网络配置

  下面的例子我们将以Master机器为例,即主机名为"Master "IP"10.12.0.93"进行一些主机名配置的相关操作。其他的Slave机器以此为依据进行修改。

 

 1)查看当前机器名称

  用下面命令进行显示机器名称,如果跟规划的不一致,要按照下面进行修改。

 

hostname

 

   

  上图中,用"hostname""master"机器的名字为"master ",与我们预先规划的一致。其他2台机器分别改为slave1slave2

 2)修改当前机器名称

  假定我们发现我们的机器的主机名不是我们想要的,通过对"/etc/sysconfig/network"文件修改其中"HOSTNAME"后面的值,改成我们规划的名称。

  这个"/etc/sysconfig/network"文件是定义hostname和是否利用网络的不接触网络设备的对系统全体定义的文件。

  设定形式:设定值=值

  "/etc/sysconfig/network"的设定项目如下:

NETWORKING 是否利用网络

GATEWAY 默认网关

IPGATEWAYDEV 默认网关的接口名

HOSTNAME 主机名

DOMAIN 域名

  用下面命令进行修改当前机器的主机名(备注:修改系统文件一般用root用户) 

vim/etc/sysconfig/network

  通过上面的命令我们从"/etc/sysconfig/network"中找到"HOSTNAME"进行修改,查看内容如下:

 

 3)修改当前机器IP

    假定我们的机器连IP在当时安装机器时都没有配置好,那此时我们需要对"ifcfg-eth0"文件进行配置,该文件位于"/etc/sysconfig/network-scripts"文件夹下。

  在这个目录下面,存放的是网络接口(网卡)的制御脚本文件(控制文件),ifcfg- eth0是默认的第一个网络接口,如果机器中有多个网络接口,那么名字就将依此类推ifcfg-eth1ifcfg-eth2ifcfg- eth3……

  这里面的文件是相当重要的,涉及到网络能否正常工作。

  设定形式:设定值=

  设定项目项目如下:

 

DEVICE 接口名(设备,网卡)

BOOTPROTO IP的配置方法(static:固定IP dhcpHCP none:手动)

HWADDR MAC地址

ONBOOT 系统启动的时候网络接口是否有效(yes/no

TYPE 网络类型(通常是Ethemet

NETMASK 网络掩码

IPADDR IP地址

IPV6INIT IPV6是否有效(yes/no

GATEWAY 默认网关IP地址

DSN1   DSN服务器地址

 

查看"/etc/sysconfig/network-scripts/ifcfg-eth1内容,此处实际网卡名称eth1

 

 

 

  如果上图中IP与规划不相符,用下面命令进行修改: 

vim/etc/sysconfig/network-scripts/ifcgf-eth1

  修改完之后可以用"ifconfig"进行查看。

 

 

   

4)配置hosts文件(必须

  "/etc/hosts"这个文件是用来配置主机将用的DNS服务器信息,是记载LAN内接续的各主机的对应[HostName和IP]用的。当用户在进行网络连接时,首先查找该文件,寻找对应主机名(或域名)对应的IP地址。

  vi /etc/hosts 

 

 

2.4配置Master无密码登录所有Salve

1)SSH无密码原理

masterNameNode | JobTracker)作为客户端,要实现无密码公钥认证,连接到服务器salveDataNode | Tasktracker)上时,需要在master上生成一个密钥对,包括一个公钥和一个私钥,而后将公钥复制到所有的Slave上。当master通过SSH连接salve时,Salve就会生成一个随机数并用Master的公钥对随机数进行加密,并发送给mastermaster收到加密数之后再用私钥解密,并将解密数回传给slaveslave确认解密数无误之后就允许master进行连接了。这就是一个公钥认证过程,其间不需要用户手工输入密码。重要过程是将客户端master复制到slave上。

(注:无密码说明从网上拷贝过来,图片Master对应masterSlave1对应slave1

2)mater机器上生成密码对

 mater节点上执行以下命令:

ssh-keygen -t rsa -P '' 

  这条命是生成其无密码密钥对,询问其保存路径时直接回车采用默认路径。生成的密钥对:id_rsaid_rsa.pub,默认存储在"/home/hadoop/.ssh"目录下。

 

 

  查看"/home/hadoop/"下是否有".ssh"文件夹,且".ssh"文件下是否有两个刚生产的无密码密钥对。

 

 

  接着在master节点上做如下配置,把id_rsa.pub追加到授权的key里面去。

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在进行Spark HA部署时,可以按照以下步骤进行操作: 1. 首先,将配置文件分发至需要部署的节点。可以使用scp命令将spark-env.sh文件分发到host02和host03节点的对应目录下: ``` scp spark-env.sh host02:/opt/programs/spark/conf scp spark-env.sh host03:/opt/programs/spark/conf ``` 2. 接下来,启动Spark HA集群,同时启动Zookeeper服务。具体的启动过程可能因环境而异,请根据实际情况执行相应的命令。 3. 在配置文件中设置相关参数以支持Spark HA。可以使用以下参数进行配置: - spark.deploy.recoveryMode:设置为ZK,表示使用Zookeeper进行故障恢复。 - spark.deploy.zookeeper.url:设置Zookeeper的URL。 - spark.deploy.zookeeper.dir:设置Zookeeper保存恢复状态的目录,默认为/spark。 4. 最后,将配置文件发送到其他节点以确保所有节点都具有相同的配置。可以使用scp命令将spark-env.sh文件分发到其他节点的相应目录下: ``` scp -r spark-env.sh hadoop02:/home/hadoop/apps/spark/conf scp -r spark-env.sh hadoop02:/home/hadoop/apps/spark/conf ``` 请注意,以上步骤仅为示例,实际操作中可能需要根据具体环境和需求进行相应的修改和调整。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [spark HA集群部署](https://blog.csdn.net/weixin_55047679/article/details/130045449)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [Spark分布式集群部署HA配置](https://blog.csdn.net/a805814077/article/details/102989233)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值