Hadoop 2.x环境搭建之单机运行模式配置

Hadoop的单机运行模式配置

 

目录

一、Hadoop配置的准备工作.1

1、linux1

二、配置Hadoop1

1.将hadoop放置到 opt下面的software文件后解压到modules文件下面: 1

2.配置hadoop的java环境支持.1

3、配置hdfs3

3.1、与hdfs相关的配置.3

3.2、格式化namenode3

3.3、启动hdfs守护进程.4

3.4、访问web界面.5

3.5、常用的HDFS文件系统常用命令.5

4、配置YARN 与任务调度 资源管理.6

5、启动hdfs 与yarn进程(前面已经启动了hdfs进程).7

6、检查hdfs yarn启动状态,即查看守护进程.7

7、向yarn提交mapreducer 任务.7

7.2、wordcount词频统计.8

8、再次执行wordcount会提示输出目录已经存在。.12

9、配置日志聚合.12

10、停止所有进程重新启动,以便配置文件生效.13

三、错误日志.15

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

一、  Hadoop配置的准备工作

1、linux 中的配置

a)  Linux中修改主机名

b)  更改主机映射 (iP 主机名)

c)  更改win7下的主机映射

d)  设置网卡为静态?

2、jdk的安装

a)  在opt下面创建software 放置jdk安装包(为压缩文件)

b)  在opt下面创建modules 放置用于jdk安装

c)  配置环境变量

d)  配置防火墙

二、  配置Hadoop

1.   将hadoop放置到 opt下面的software文件后解压到modules文件下面:

2.  配置hadoop的java环境支持

配置文件的地址:opt/modules/hadoop版本/etc/hadoop

优先配置sh结尾的文件:

hadoop-env.sh

mapred-env.sh

yarn-env.sh

找到其中写有:${JAVA_HOME}的地方并更改为:

exportJAVA_HOME=/opt/modules/jdk1.7.0_67

三者对应中JAVA_HOME的位置:

这三个更改后应该为:

3、配置hdfs

3.1、与hdfs相关的配置

配置文件的地址:opt/modules/hadoop版本/etc/hadoop

这次主要更改以xml结尾的文件

 

按照顺序为:

1)core-site.xml  (这里面会有主机名字的更改)

2)hdfs-site.xml

3.2、 格式化namenode  

注意:sbin命令都是在hadoop版本名的目录下执行的 比如hadoop-2.5.0

注意:这里只格式化一遍,不用重复格式化

这里与通过cd命令进入到hadoop版本目录下:

   格式化:$bin/hdfs namenode -format 

 

3.3、启动hdfs守护进程

注意:sbin命令都是在hadoop版本名的目录下执行的 比如hadoop-2.5.0

步骤:

启动namenode进程

启动datanode进程

查看jps

  

3.4、访问web界面

 

http://hadoop0505:50070/

查看文件系统

3.5、 常用的HDFS文件系统常用命令

   $ bin/hdfs dfs   //可以查看所有的dfs相关的操作指令

   $ bin/hdfs dfs -ls / 

   $ bin/hdfs dfs -mkdir -p /input/test

   $ bin/hdfs dfs  -rmdir/input/test

   $ bin/hdfs dfs  -put/opt/software/jdk-7u67-linux-x64.tar.gz /input/test

 

4、配置YARN 与任务调度 (Mapreduce) 资源管理(resourcemanager nodemanager)

配置yarn-site.xml

   复制并重名模板文件

$ cp etc/hadoop/mapred-site.xml.templateetc/hadoop/mapred-site.xml

配置新增的mapred-site.xml

 

步骤如下:yarn-site.xml中

mapred-site.xml

 

5、启动hdfs 与yarn进程(前面已经启动了hdfs进程)

$ sbin/hadoop-daemon.sh start namenode

$ sbin/hadoop-daemon.sh start datanode

$ sbin/yarn-daemon.sh start resourcemanager

$ sbin/yarn-daemon.sh start nodemanager

6、检查hdfs yarn启动状态,即查看守护进程

 $  jps

7、向yarn提交mapreducer 任务

1)计算圆周率

   $bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar  pi 3 5

注意:这里端口为8032,无论何时总是先运行map,运行成功后子在运行reduce ,当然多线程中也是,只不过有时候看到的是map与不与其对应的reduce同时进行。

 

7.2、wordcount词频统计

a.在用户主目录创建一个1.log文件

注意:这里讲到查看 文件内容 最好用-text,而不是 -cat

   $vi /home/hadoop/2.log

   hadoopjava

   htmljava

   linuxhadoop

   yarnhadoop

 

   b1.上传到hdfs的input目录下

   $ bin/hdfs dfs  -put  ~/wordcoun.txt/input/

   b2.去http://hadoop0505:50070/中查看

   c.提交wordcount任务

执行命令:

$ bin/hadoop jar  share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar  wordcount /input /output

 

自动创建input 文件

 

注意,这里只能查看该文件名

如果想看到里面写入的内容应该为:

a.   进入hadoop0505:50070网站,(这里hadoop0505是主机名字),然后会

自动跳到http://hadoop0505:50070/dfshealth.html#tab-overview,然后将其中的html 更改为jsp ,即为:http://hadoop0505:50070/dfshealth.jsp#tab-overview,点击Browse the filesystem,找到input,wordcount.txt,就可以看到里面写的内容。

进入后显示写入的文字:

 

 

测试wordcount并将文件上传至output2,output2会自动新建这个文件:

查看步骤:在http://hadoop0505:8088/cluster中,先刷新,在查看对应的文件,如果显示successed,去http://hadoop0505:50070/dfshealth.jsp#tab-overview中查看生成的output2,既可以了。

 

8、再次执行wordcount会提示输出目录已经存在。

org.apache.hadoop.mapred.FileAlreadyExistsException:Output directory hdfs://hadoop0505:8020/output already exists

9、配置日志聚合

对应文件:mapred-site.xml

yarn-site.xml

 

对应文件:

 

10、停止所有进程重新启动,以便配置文件生效

1)停止进程

$sbin/hadoop-daemon.sh stop namenode

$sbin/hadoop-daemon.sh stop datanode

$sbin/yarn-daemon.sh stop resourcemanager

$sbin/yarn-daemon.sh stop nodemanager

2)启动进程

$sbin/hadoop-daemon.sh start namenode

$sbin/hadoop-daemon.sh start datanode

$sbin/yarn-daemon.sh start resourcemanager

$sbin/yarn-daemon.sh start nodemanager

   3)启动历史

启动历史服务

sbin/mr-jobhistory-daemon.shstart historyserver

   4)查看守护进程

28904ResourceManager

28724NameNode

28808DataNode

29152NodeManager

29304JobHistoryServer

30561Jps

查看hdfs的web界面

http://hadoop0505:50070

*28724NameNode

*28808DataNode

查看yarn的web访问界面

http://hadoop0505:8088

*28904ResourceManager

28724NameNode

28808DataNode

*29152NodeManager

 

 

查看历史日志的web访问界面

http://hadoop0505:19888

28904ResourceManager

28724NameNode

28808DataNode

29152NodeManager

*29304 JobHistoryServer

 

三、  错误日志

3.1、本次有人在输入开启namenode与datanode后查看进程jps 发现

没开启namenode与datanode,通过查看错误日志,发现上面写有,does not contain a valid host:port authority:+对应的主机名:8020

这是因为在该主机名中含有两个“.” ,后来将主机名改为含有一个“.”。

 

3.2、发现有人主机名改为含有一个“.”,但是开启服务之后第一次jps 会

显示对应的namenode,datanode服务,第二次jps会显示只有jps,即为自动关闭了namenode,datanode,这是因为他没有设置主机名。通过vi /etc/hosts来设置。

 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值