在CentOs 7 上安装jdk和Hadoop

 1、 找到原有的Java jdk

              java -version
              rpm -qa| grep java

  2、 卸载原有Jdk

            su  root 

            [root@localhost bin]# rpm -e --nodeps java-1.8.0-openjdk
            [root@localhost bin]# rpm -e --nodeps java-1.8.0-openjdk-headless
            [root@localhost bin]# rpm -e --nodeps tzdata-java
            [root@localhost bin]# rpm -e --nodeps javapackages-tools

  3、查看是否卸载成功
            java -version

  4、卸载成功后,创建一个目录(例子:/export/servers)目录
            cd /
            mkdir /export
            cd export
            mkdir servers
            cd servers

这里需要连接到Xshell:   使用终端上传jdk和hadoop安装包
   5、 解压java的jdk:

             tar -zxvf jdk文件版本
              ll  查看
              cd  jdk文件版本
              vi /etc/profile  配置环境变量


             如下:
            export JAVA_HOME=/export/servers/jdk1.8.0_321
            export PATH=$PATH:$JAVA_HOME/bin
            export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
         

           更新配置文件: source /etc/profile
           查看是否配置成功: java -version

       6、解压hadoop文件:

          tar -zxvf hadoop文件版本
          ll  查看
         cd  hadoop文件
          vi /etc/profile  配置环境变量
       

         如下:
         export  HADOOP_HOME=/export/servers/hadoop-3.1.3
         export  PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
         

         更新配置文件: source /etc/profile
         查看是否配置成功: hadoop  -version

  
        7.配置hadoop的三个配置文件。

            1. hadoop-env.sh文件

                 [root@localhost hadoop]# vi hadoop-env.sh
                  将JAVA_HOME路径设置为java_home路径,并删除#
       
            2. core-site.xml文件
         
                 [root@localhost hadoop]# vi core-site.xml
   添加:
           

        <property>
          <name>hadoop.tmp.dir</name>
          <value>/export/servers/hadoop-3.1.3</value>
        </property>

        <property>
          <name>hadoop.tmp.dir</name>
          <value>/export/servers/hadoop-3.1.3</value>
        </property>

         3.hdfs-site.xml文件       

        [root@localhost hadoop]# vi hdfs-site.xml
添加:
       

        <property>
          <name>dfs.relication</name>
          <value>1</value>
        </property>

        <property>
          <name>dfs.namenode.name.dir</name>
          <value>/export/servers/tmp/dfs/name</value>
        </property>
     
        <property>
          <name>dfs.datanode.data.dir</name>
          <value>/export/servers/tmp/dfs/data</value>
        </property>


     4、添加后创建目录:
       /hadoop/tmp/dfs/name
       /hadoop/tmp/dfs/data
     

     5、查看是否成功配置

      hdfs namenode -format    

   8、修改配置文件/etc/profile
       1. vi /etc/profile
           写入:
         

          export HDFS_NAMENODE_USER=root
          export HDFS_DATANODE_USER=root
          export HDFS_SECONDARYNAMENODE_USER=root
          export YARN_RESOURCEMANAGER_USER=root
          export YARN_NODEMANAGER_USER=root


       2. source /etc/profile
       3. start-dfs.sh  运行
       4. start-yarn.sh

  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值