CentOS7下Hadoop安装教程 (分布式安装)

    1)相关技术:

        1、在Vmware中安装CentOs7系统

        2、克隆虚拟机

        3、修改静态IP

            查看当前IP信息

        ip addr

            修改配置文件

        vim  /etc/systemconfig/network-scripts/ifcfg-ens33

          (不一定是ifcfg-ens33,具体看/etc/systemconfig/network-scripts下的情况),具体IP规划后面讲,保存退出

           

            重启网络服务

        systemctl  network  restart

            再次查看IP是否修改成功

        4、修改主机名(在CentOs7上)

            修改主机名            

         hostnamectl  set-hostname  hadoop000

            查看主机名               

        hostname

            修改hosts              

        vim  /etc/hosts

    

        5、关闭防火墙(CentOs7系统)

            查看防火墙状态         

        firewall-cmd  --state

            关闭防火墙           

         systemctl  stop  firewalld.service

            禁止firewall开机启动   

        systemctl  disable firewalld.service

        6、创建hadoop用户(系统若提示过于简单,可忽略)

            创建一个用户名为:hadoop           

        adduser  hadoop

        设置密码:

        passwd   hadoop

            扩展

                删除用户              

         userdel  -rf  hadoop

        7、配置hadoop用户具有root权限

            先给与root权限进行操作     

         su  root

            给sudoers文件权限              

        chmod  640  /etc/sudoers

            修改sudoers文件         

        vim  /etc/sudoers 

            添加  hadoop  ALL=(ALL)    ALL

            保存退出 

            

            恢复sudoers权限

        chmod  440  /etc/sudoers

        8、在/opt目录下创建文件夹module(集群安装地址)、software(安装包存放地址)

                创建文件夹module、software            

        sudo  mkdir  module  software

                修改module和software文件夹所有者               

        sudo  chown  hadoop:hadoop  module/  software/

                

        9、查看hadoop --HDFS可用空间      

        hdfs  dfsadmin  -report

            

            查看hadoop中空间             

        df  -lh

                            

    2)集群规划:

        服务器准备:hadoop101、hadoop102、hadoop103

        IP划分如下

服务器名称

 IP

子网掩码

网关

hadoop000

192.168.116.129

255.255.255.0

192.168.116.2

hadoop101

192.168.116.130

255.255.255.0

192.168.116.2

hadoop102

192.168.116.131

255.255.255.0

192.168.116.2

hadoop103

192.168.116.132

255.255.255.0

192.168.116.2

        整体规划如下(考虑内存压力)

        

    3)虚拟机环境准备:

        1、在Vmware中安装一个CentOs7系统(包含设置静态IP--192.168.116.129、主机名--hadoop000、关闭防火墙、创建hadoop用户、配置hadoop用户root权限、创建module和software文件夹并修改文件夹所有者,)--可将其作为原版备份,方便以后使用

        2、克隆虚拟机(一共三份)

        3、修改克隆虚拟机的静态IP,见前面IP划分

        4、修改主机名(将三份克隆虚拟机主机名分别修改为hadoop101,hadoop102,hadoop103)

    4)集群搭建

        1、安装jdk(在hadoop101中)

            将jdk文件放置到software中

            解压jdk文件到module中           

        tar  -zxvf  /opt/module/jdk-8u144-linux-x64.tar.gz  -C  /opt/software/

            在/etc/profile中配置jdk的环境变量(/opt/module/jdk1.8.0_144是jdk安装路径)               

        sudo  vim  /etc/profile

          在profile文件末尾中添加,并保存退出

      

           让修改后文件生效

        source   /etc/profile

           测试是否生效

        java  -version

       2、SSH免密登陆

            使用hadoop用户进行生成公钥和私钥(在hadoop101中)            

        ssh-keygen  -t  rsa

             进入到.ssh目录下,将公钥拷贝到免密登陆的目标机器上

        ssh-copy-id  hadoop102
        ssh-copy-id  hadoop103

               hadoop102和hadoop103进行同样的操作,这样三台机器都可以相互免密了       

       3、安装hadoop(在hadoop101上)

             (1)将Hadoop安装包放到/opt/software下

             (2)解压Hadoop

        tar -zxvf hadoop-2.7.2.tar.gz -C /opt/module/

             (3)获取Hadoop安装路径        

        pwd

              (4)在/etc/profile中配置Hadoop环境变量(与之前配置jdk方法相同),保存退出

            (5)让修改后的文件生效

        source  /etc/profile

              (6)配置core-site.xml(在/opt/module/hadoop-2.7.2/etc/hadoop目录下),保存退出

        vim  core-site.xml

            (7)配置hadoop-env.sh

        vim  hadoop-env.sh

            (8)配置hdfs-site.xml(此处副本系数设置为1是因为磁盘空间较少,一般情况下设置为3

        vim  hdfs-site.xml

          (9)配置yarn-env.sh

        vim  yarn-env.sh

          (10)配置yarn-site.xml

        vim  yanr-site.xml

           (11)配置mapred-env.sh

        vim  mapred-env.sh

          (12)配置mapred-site.xml(先将mapred-site.xml.template修改名为mapred-site.xml)

        mv  mapred-site.xml.template  mapred-site.xml
        vim  mapred-site.xml

          (13)配置slave

        vim  slaves

            至此,配置文件全部配置完成

          (14)编写集群分发脚本xsync(将文件发送到hadoop102、hadoop103)

                      (a)在/home/hadoop目录下创建bin目录,在bin目录下创建文件xsync,xsync内容如下

            mkdir  bin
            cd     bin/
            vim    xsync

                      (b)修改脚本xsync执行权限

            chmod  777  xsync

          (15)使用分发脚本xsync将hadoop配置好的文件发送到hadoop102、hadoop103

        xsync /opt/module/hadoop-2.7.2/

          (16)使用分发脚本xsync将/etc/profile发送到hadoop102、hadoop103

        xsync  /etc/profile

       4)、启动hadoop

            1、首次启动,需要格式化NameNode

        hadoop  namenode  -format

            2、分别在hadoop101和hadoop102上启动HDFS和yarn(由于配置时NameNode在hadoop101上,ResourceManager在hadoop102上)

               在hadoop101上(bin目录下)

        ./start-dfs.sh

                在hadoop102(bin目录下)

        ./yarn-site.sh

            3、通过jps命令查看启动进程

            4、也可以通过浏览器查看:hadoop101:50070

至此,整个集群安装完成!!!

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值