hadoop集群的搭建流程

1.创建单个虚拟机

配置IP地址包括三个(虚拟机本身,vmare,和主机网络中心)用于连接外网。如何使虚拟机能够连接外网可以参考:centos7连接外网
判断连接使用ping命令
如果不是图形界面则可以安装,使用yum install -y命令 下载Gname然后使用startx
另外还要下载epel-release,net-tools ,vim
关闭防火墙和其自启动:systemctl disable firewalld.service

2.创建新的用户

useradd … passwd…
修改权限
1.为/etc/sudoers添加写权限 chmod 777 /etc/sudoers
2.添加 用户 ALL=(ALL)ALL ALL
3.撤销sudoers的写权限 chmod u-w /etc/sudoers

在etc/sudoers中添加

3.在opt目录中创建module和software目录

卸载默认jdk

4.克隆,修改新的虚拟机中的IP地址 vim /etc/sysconfig/network-scripts/ifcfg-ens33

linux中修改主机名称 vim /etc/hostname 以及添加ip映射文件/etc/hosts
在windows系统中的system32/driver/etc中的host文件中添加映射
添加完成之后重启虚拟机

5.在module中安装hadoop和JDK借助xshell 并使用 scp命令/xsync(可以编辑他的脚本执行)将这两个文件拷贝到其他虚拟机中,另外使用scp拷贝 /etc/profile.d/my_env.sh ->全局变量设置 (接收端需要使用source 更新配置信息 source /etc/profile )

6.SSH无密登录配置

~ :cd .ssh
ssh-keygen -t rsa#用于第一次时(为当前节点设置公钥和私钥等三个文件),之后添加到其他节点是用ssh-copy-id …
ssh-copy-id hadoop102/103/104
生成秘钥步骤
ssh-keygen -t rsa
按两次回车

如果重新生成秘钥,步骤则:
ssh-keygen -t rsa
y
两次回车
直接复制秘钥完成免密
ssh-copy-id -i /root/.ssh/id_rsa.pub root@centos8

完整流程:
root@hadoop102:ssh-keygen -t rsa#针对当前用户,如果要root用户也免密登录就需要su root后再执行该语句并执行下面的语句
ssh-copy-id hadoop102
ssh-copy-id hadoop103
ssh-copy-id hadoop104
同理其他主机如果想相切回当前hadoop102免密登录则需要相同的配置
并创建同步分发脚本 xsync


同步分发脚本
vi xsync

#!/bin/bash
#1. 判断参数个数
if [ $# -lt 1 ]
then
  echo Not Enough Arguement!
  exit;
fi
#2. 遍历集群所有机器
for host in 主机名1 主机名2 主机名3#需要根据自己集群的ip来写,如果有hosts映射,可以直接使用主机名
do
  echo ====================  $host  ====================
  #3. 遍历所有目录,挨个发送
  for file in $@
  do
    #4 判断文件是否存在
    if [ -e $file ]
    then
      #5. 获取父目录
      pdir=$(cd -P $(dirname $file); pwd)
      #6. 获取当前文件的名称
      fname=$(basename $file)
      ssh $host "mkdir -p $pdir"
      rsync -av $pdir/$fname $host:$pdir
    else
      echo $file does not exists!
    fi
  done
done

赋予执行权限:
chmod u+x xsync
如果想让同步脚本在所有目录下都使用,可以将脚本放到/bin目录下(mv ./xsync.sh /bin/xsync.sh),并给与执行权限

7.集群配置

五个文件的配置和分发
编辑主节点的配置文件:/opt/module/hadoop/etc下
core-site.xml
hdfs-site.xml
yarn-site.xml
mapred-site.xml
workers
将配置分发到其他节点:
xsync etc

8.配置历史服务器

historyserver,用于在mapreduce处理完成之后可以读取其中的日志文件.

9.配置聚集日志,方便查看

yarn-site.xml添加内容即可

注意如果是已经创建集群后并使用了hdfs,mapred,yarn了则在将集群数据拷贝到其他节点上后要将其中Hadoop中的data和logs数据删除掉,并且其中的hdfs集群设置可能之后就需要重新设置了


linux命令扩展
查找文件 find -name
重启网络服务 sudo service network restart
查看IP ip addr/ifconfig
在虚拟机中在命令行中输入:curl www.baidu.com 命令,可以访问外网地址


  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Hadoop服务器集群搭建流程可以大致分为以下几个步骤: 1. 硬件准备:确保每台服务器都满足Hadoop的最低硬件要求,如处理器、内存、硬盘等。 2. 操作系统安装:在每台服务器上安装适合的操作系统,如Linux发行版(如Ubuntu、CentOS等)。 3. 网络配置:配置每台服务器的网络设置,确保它们能够相互通信。 4. SSH设置:在每台服务器上启用SSH,并设置免密登录。 5. Java安装:在每台服务器上安装Java Development Kit (JDK),确保Hadoop能够运行。 6. Hadoop安装:在一台服务器上安装Hadoop,并进行必要的配置,如Hadoop的核心配置文件、环境变量等。 7. 配置Hadoop集群:编辑Hadoop的配置文件,包括core-site.xml、hdfs-site.xml和mapred-site.xml等,配置集群中的各个节点。 8. 格式化HDFS:在主节点上格式化HDFS,创建初始的文件系统。 9. 启动集群:启动Hadoop集群,确保各个节点正常运行。 10. 测试集群:通过运行一些示例程序或命令,验证集群的正常运行。 11. 高可用性配置(可选):如果需要实现Hadoop集群的高可用性,可以进行相关配置,如启用HDFS的故障转移和资源管理器的HA等。 12. 集群监控和管理(可选):可以使用Hadoop的相关工具,如Ambari、Cloudera Manager等,进行集群的监控和管理。 以上是Hadoop服务器集群搭建的大致流程,具体的步骤和配置可能会根据实际情况有所不同。在实际操作中,可以参考Hadoop官方文档或其他相关资源进行详细的指导。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

看不见的罗辑

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值