spark、hadoop集群添加节点

1、首先添加hdfs的节点,将安装包上传到服务器,设置好环境变量。配置文件按之前spark集群搭建的那里进行修改。

 设置完成后,要对新节点新型格式化:

# hdfs  dfs  namenode  -format

生成公钥、私钥,配置免密登录:

ssh-keygen   -t rsa   

一直回车就好了,会在用户的家目录下生成.ssh目录,里面有公钥和私钥。需要处建一个新的文件叫authorized_keys,将自己的公钥和master服务器上的公钥都放到这个文件里面,并将自己的公钥copy到master服务器的authorized_keys文件里面。

# chmod  600 authorized_keys

然后将自己的主机名添加到所有的节点服务器的hosts文件里,并将其他的节点主机名也添加到自己的hosts文件里。

启动服务:

./start-dfs.sh

!然后在namenode,查看集群情况:

 # hdfs dfsadmin -report

!最后还需要对hdfs负载设置均衡,因为默认的数据传输带宽比较低,可以设置为64M,即hdfs dfsadmin -setBalancerBandwidth 67108864

!默认balancer的threshold为10%,即各个节点与集群总的存储使用率相差不超过10%,我们可将其设置为5%,启动Balancer:

  #sbin/start-balancer.sh -threshold 5

   等待集群自均衡完成

 

2、添加spark节点

上传spark的安装包,然后按之前集群上的配置文件进行修改:

首先是将主机名添加到各自的hosts文件,并修改spark的conf目录下的slaves文件,将主机名添加到此处。

启动服务:

在master上:

#./stop-all.sh

#./start-all.sh

 

访问spark服务器的8080端口,查看节点是否添加成功。

转载于:https://www.cnblogs.com/cuishuai/p/7795015.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值