【3.2】Hadoop运行模式之(伪分布式运行模式)

一、 启动HDFS并运行MapReduce程序
  1. 配置集群
    (1) 配置:hadoop.env.sh
    在这里插入图片描述
    (2)配置 core-site.xml
    在这里插入图片描述
    (3)配置 hdfs-site.xml
    在这里插入图片描述

  2. 启动集群
    (1)格式化 NameNode(第一次启动时格式化,以后就不要总格式化
    在这里插入图片描述
    (2)启动 NameNode
    在这里插入图片描述
    (3)启动 DataNode
    在这里插入图片描述

  3. 查看集群
    (1) 查看是否启动成功
    在这里插入图片描述
    注意:jps是 JDK中的命令 不是 Linux命令 。 不 安装 JDK不能使用 jps
    (2) web端查看 HDFS文件系统
    http://192.168.1.101:50070/dfshealth.html#tab-overview
    在这里插入图片描述若不能登陆,检查下防火墙是否关闭。
    具体参考如下博文
    https://www.cnblogs.com/zlslch/p/6604189.html
    (3)思考:为什么不能一直格式化NameNode,格式化 NameNode要注意什么
    格式化 NameNode 会产生新的集群 id,导致 NameNode 和 DataNode 的集群 id 不一致,集群找不到已往数据。所以格式NameNode时,一定要先删除data数据和 log日志 ,然后再格式化 NameNode。

  4. 操作集群
    (1)在 HDFS文件系统上创建 一个 input文件夹在这里插入图片描述
    (2)将测试文件内容上传到文件系统上
    在这里插入图片描述
    (3)查看上传的文件是否正确在这里插入图片描述
    Web端查看
    在这里插入图片描述
    (4)运行 MapReduce程序
    bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /user/atguigu/input/ /user/atguigu/output在这里插入图片描述
    (5)查看输出结果
    bin/hdfs dfs -cat /user/atguigu/p*在这里插入图片描述
    (6)将测试文件内容下载到本地
    hdfs dfs -get /user/atguigu/output/part-r-00000 ./wcoutput/
    注意:本地的wcoutput中不存在part-r-00000,否则下载后保存不到wcoutput中去。
    (7)删除 输出结果
    hdfs dfs -rm -r /user/atguigu/output

二、 启动YARN并运行MapReduce程序
  1. 配置集群
    (1)配置 yarn-env.sh
    配置一下JAVA_HOME:
    export JAVA_HOME=/opt/module/jdk1.8.0_144
    (2)配置 yarn-site.xml
    在这里插入图片描述
    (3)配置 mapred-env.sh
    配置JAVA_HOME
    在这里插入图片描述
    (4)配置 (对 mapred-site.xml.template重新命名为 ) mapred-site.xml
    在这里插入图片描述

  2. 启动集群
    (1)启动前必须保证 NameNode和 DataNode已经启动
    (2)启动 ResourceManager
    在这里插入图片描述
    (3)启动 NodeManager
    在这里插入图片描述

  3. 集群操作
    (1)YARN的浏览器页面查看
    http://hadoop101:8088/cluster在这里插入图片描述
    (2)删除文件系统上的 output文件在这里插入图片描述
    (3)执行 MapReduce程序
    在这里插入图片描述
    (4)查看运行结果
    在这里插入图片描述
    web端:
    在这里插入图片描述

三、配置历史服务器

为了查看程序 的 历史运行 情况, 需要 配置一下 历史 服务器。具体

  1. 配置mapred-site.xml
    在这里插入图片描述
  2. 启动历史服务器
    在这里插入图片描述
  3. 查看历史服务器是否启动
    jps
  4. 查看JobHistory
    http://hadoop101:19888/jobhistory
四、配置日志的聚集

日志聚集概念:应用运行完成以后,将程序运行日志信息上传到 HDFS系统上。
日志聚集功能好处:可以方便的查看到程序运行详情,方便开发调试 。
注意:开启日志聚集功能 需要 重新启动 NodeManager 、 ResourceManager和
HistoryManager。

  1. 配置yarn-site.xml
    在这里插入图片描述在这里插入图片描述
  2. 关闭NodeManager、ResourceManager和HistoryManager
    在这里插入图片描述
  3. 启动NodeManager、ResourceManager和HistoryManager
    在这里插入图片描述
  4. 删除HDFS上已经存在的输出文件
    在这里插入图片描述
  5. 执行WordCount程序
    在这里插入图片描述
  6. 查看日志
    http://hadoop101:19888/jobhistory
    (1) job history在这里插入图片描述
    (2) job运行情况
    在这里插入图片描述
    (3)查看日志
    在这里插入图片描述
五、配置文件说明

Hadoop配置文件分两类:默认配置文件和自定义配置文件,只有用户想修改某一默认
配置值时,才需要修改自定义配置文件,更改相应属性值。

  1. 默认配置文件
    在这里插入图片描述

  2. 自定义配置文件
    core-site.xml、 hdfs-site.xml、 yarn-site.xml、 mapred-site.xml四个配置文件存放在$HADOOP_HOME/etc/hadoop这个路径上用户可以根据项目需求 重新进行 修改配置。

笔记总结
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值