Linux安装Hadoop

----------------------Hadoop安装(注意 /etc/hosts文件中hostname不能带有下划线)
1.安装jdk(可用yum命令安装,安装之后jdk路径为:/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.212.b04-0.el7_6.x86_64)
2.安装hadoop (压缩包地址 http://mirrors.hust.edu.cn/apache/hadoop/common/stable2/):
 (1)创建hadoop文件夹:cd /srv 
 (2)解压hadoop压缩包:tar -zxvf hadoop-3.2.0.tar.gz
 (3)更名:mv hadoop-3.2.0 hadoop
 (4)修改/srv/hadoop/etc/hadoop/hadoop-env.sh文件:
         export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.212.b04-0.el7_6.x86_64
     
         export HDFS_NAMENODE_USER=root
        export HDFS_DATANODE_USER=root
        export HDFS_SECONDARYNAMENODE_USER=root
        export YARN_NODEMANAGER_USER=root
        export YARN_RESOURCEMANAGER_USER=root
     创建文件储存的文件夹,如下文件夹:
                                   /srv/hadoop/tmp/name
                                   /srv/hadoop/tmp/hdfs/data
                                   /srv/hadoop/tmp/hdfs/name
 (5)修改/srv/hadoop/etc/hadoop/core-site.xml文件:
<configuration>
    <!-- 指定HDFS老大(namenode)的通信地址 -->
    <property>
        <name>fs.default.name</name>
        <value>hdfs://127.0.0.1:9000</value>
        <description>HDFS的URI,文件系统://namenode标识:端口号</description>
    </property>
    <!-- 指定hadoop运行时产生文件的存储路径 -->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/srv/hadoop/tmp</value>
        <description>namenode上本地的hadoop临时文件夹</description>
    </property>
    <property>
        <name>dfs.name.dir</name>
        <value>/srv/hadoop/tmp/name</value>
        <description>name文件夹</description>
    </property>
    <property>
        <name>fs.trash.interval</name>
        <value>1440</value>
        <description>清空回收站后,会把回收站中所有文件移动到检查点的目录下,1440分钟以后,该目录下的所有数据会被删掉</description>
    </property>
</configuration>
 (6)修改/srv/hadoop/etc/hadoop/hdfs-site.xml文件:
    <configuration>
    <!-- 设置hdfs副本数量 -->
       <property>
            <name>dfs.replication</name>
            <value>1</value>
            <description>副本个数,配置默认是3,应小于datanode机器数量</description>
        </property>
        <property>
            <name>dfs.namenode.name.dir</name>
            <value>/srv/hadoop/tmp/hdfs/name</value>
            <description>namenode上存储hdfs名字空间元数据 </description>
        </property>
        <property>
            <name>dfs.datanode.data.dir</name>
            <value>/srv/hadoop/tmp/hdfs/data</value>
            <description>datanode上数据块的物理存储位置</description>
        </property>
        <property>
           <name>dfs.permissions</name>
           <value>false</value>
           <description>是否开启HDFS的权限检查,默认true</description>
        </property>
        <property>
             <name>dfs.http.address</name>
             <value>0.0.0.0:50070</value>
        </property>
    </configuration>
 (7)修改/srv/hadoop/etc/hadoop/mapred-site.xml文件:
    <configuration>
        <!-- 通知框架MR使用YARN -->
        <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
        <property>
            <name>mapred.job.tracker</name>
            <value>127.0.0.1:9001</value>
        </property>
    </configuration>
 (8)修改/srv/hadoop/etc/hadoop/yarn-site.xml文件:
<configuration>
    <!-- reducer取数据的方式是mapreduce_shuffle -->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
                                        <property>
                                            <name>yarn.resourcemanager.hostname</name>
                                            <value>chen</value>
                                        </property>
</configuration>
 (9)将hadoop添加到环境变量:vi /etc/profile
    添加配置:export HADOOP_HOME=/srv/hadoop
             export PATH=$PATH:$HADOOP_HOME/bin
 (10)使配置文件生效:source /etc/profile
                     (11)配置免密登陆(重点:但是可以忽略):
                         产生一个密钥对:ssh-keygen -t rsa
                         把公钥拷贝给要登录的服务器:ssh-copy-id -i ~/.ssh/id_rsa.pub 111.231.1.43
                                                   ssh-copy-id -i ~/.ssh/id_rsa.pub root@localhost
 (12)启动hadoop:
     进入/srv/hadoop/bin目录:cd /srv/hadoop/bin
     启动:./hdfs namenode -format    (若多次操作此命令,需要将 /srv/hadoop/tmp文件夹删除,然后重新创建)
 (13)在/srv/hadoop/sbin目录启动hdfs和yarn:
     进入目录:cd /srv/hadoop/sbin
     先启动HDFS: ./start-dfs.sh 
     再启动YARN:    ./start-yarn.sh 
     ----或者忽略以上步骤,直接启动: ./start-all.sh
 (14)查看启动情况:输入jps
     出现如下:    11733 ResourceManager
                11097 NameNode
                11466 SecondaryNameNode
                12219 Jps
                11231 DataNode
                11871 NodeManager
 
 (15)若以上正常,则可以进入一下页面:
     ip:50070(Namenode info页面) 、 ip:8088(Node labels of the cluster页面)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值