hadoop单机安装

1. 上传tar包

2. 解压

3. 配置jdk环境

4. 进入/usr/local/src/hadoop-2.7.2/etc/hadoop

6. 修改hadoop-env.sh文件里面的jdk环境变量

7. 配置环境变量:vim/etc/profile
      HADOOP_HOME=/usr/local/src/hadoop-2.7.2/
      export PATH=$HADOOP_HOME/bin:$PATH
      export PATH=$HADOOP_HOME/sbin:$PATH

8. 加载环境变量:source /etc/profile

9. 测试安装是否成功:hadoop version

10. 测试案例使用(可以不操作):
       mkdir input

       cp etc/hadoop/*.xml input

       bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar grep input output 'dfs[a-z.]+'
       
       cat output/*

11. 进入:/usr/local/src/hadoop-2.7.2/etc/hadoop目录

12. 修改core-site.xml文件
     <!-- 指定HDFS中NameNode的地址 -->
     <property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop1:9000</value>
     </property>

     <!-- 指定Hadoop运行时产生文件的存储目录 -->
     <property>
    <name>hadoop.tmp.dir</name>
    <value>/opt/module/hadoop-2.7.2/data/tmp</value>
     </property>

13. 修改hdfs-site.xml 文件
      <!-- 指定HDFS副本的数量 -->
      <property>
     <name>dfs.replication</name>
     <value>1</value>
      </property>

14. 格式化NameNode: bin/hdfs namenode -format(重新格式化请删除data和logs目录)


15. 启动:sbin/hadoop-daemon.sh start namenode
          
      sbin/hadoop-daemon.sh start datanode

    查看:jps

16. web页面访问:http://192.168.0.118:50070


测试数据:

    创建文件夹:hdfs dfs -mkdir -p /user/admin/input

    上传文件: hdfs dfs -put README.txt  /user/admin/input/

    下载: hdfs dfs -get /user/admin/input/README.txt ./wcoutput/

    删除:hdfs dfs -rm -r /user/admin/input/README.txt

yarn配置和安装:---------------------------------------------------------------------------

1. 修改yarn-env.sh 文件的jdk路径

2. 修改yarn-site.xml
    <!-- Reducer获取数据的方式 -->
    <property>
        <name>yarn.nodemanager.aux-services</name>
     <value>mapreduce_shuffle</value>
    </property>

    <!-- 指定YARN的ResourceManager的地址 -->
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>hadoop1</value>
    </property>

3. 修改mapred-env.sh 文件的jdk路径

4. mv mapred-site.xml.template mapred-site.xml

5. 修改 mapred-site.xml
   <!-- 指定MR运行在YARN上 -->
   <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
   </property>

6. 启动前必须保证NameNode和DataNode已经启动

7. sbin/yarn-daemon.sh start resourcemanager
   sbin/yarn-daemon.sh start nodemanager

8. http://192.168.0.118:8088/cluster

9. 测试案例
     进入目录:cd /usr/local/src/hadoop-2.7.2
     删除输出目录:bin/hdfs dfs -rm -R /user/admin/output
     上传文件:hdfs dfs -put README.txt  /user/admin/input/
     进行语句:bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /user/admin/input  /user/admin/output
     查看结果: bin/hdfs dfs -cat /user/admin/output/*


配置历史服务器:--------------------------------------------------------------------------

1. 修改mapred-site.xml文件
   <!-- 历史服务器端地址 -->
   <property>
       <name>mapreduce.jobhistory.address</name>
       <value>hadoop1:10020</value>
   </property>
   <!-- 历史服务器web端地址 -->
   <property>
       <name>mapreduce.jobhistory.webapp.address</name>
       <value>hadoop1:19888</value>
   </property>

2. 启动:sbin/mr-jobhistory-daemon.sh start historyserver

3. 访问:http://192.168.0.118:19888/jobhistory


配置日志的聚集:---------------------------------------------------------------------------

1. 修改yarn-site.xml文件
   <!-- 日志聚集功能使能 -->
   <property>
       <name>yarn.log-aggregation-enable</name>
       <value>true</value>
   </property>
   <!-- 日志保留时间设置7天 -->
   <property>
       <name>yarn.log-aggregation.retain-seconds</name>
       <value>604800</value>
   </property>

2. 重新启动NodeManager 、ResourceManager和HistoryManager。

   sbin/yarn-daemon.sh stop resourcemanager
   sbin/yarn-daemon.sh stop nodemanager
   sbin/mr-jobhistory-daemon.sh stop historyserver
   sbin/yarn-daemon.sh start resourcemanager
   sbin/yarn-daemon.sh start nodemanager
   sbin/mr-jobhistory-daemon.sh start historyserver

3. 测试案例
     进入目录:cd /usr/local/src/hadoop-2.7.2
     删除输出目录:bin/hdfs dfs -rm -R /user/admin/output
     上传文件:hdfs dfs -put README.txt  /user/admin/input/
     进行语句:bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /user/admin/input  /user/admin/output
     查看结果: bin/hdfs dfs -cat /user/admin/output/*

4. http://192.168.0.118:19888/jobhistory

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
EasyHadoop集群部署文档 ...................................................................................................................................................... 2 目录 ........................................................................................................................................................................................... 2 1. 文档概述 ...................................................................................................................................................................... 2 2. 背景 .............................................................................................................................................................................. 3 3. 名词解释 ...................................................................................................................................................................... 3 4. 服务器结构 .................................................................................................................................................................. 3 5. Red hat Linux基础环境搭建 ........................................................................................................................................ 5 #linux 安装 (vm虚拟机) ......................................................................................................................................... 5 #配置机器时间同步 ................................................................................................................................................. 5 #配置机器网络环境 ................................................................................................................................................. 6 #配置集群 hosts 列表 ............................................................................................................................................. 9 #安装 JAVA JDK系统软件 ..................................................................................................................

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值