hadoop开启后jps显示只有jps_hadoop伪分布式虚拟机环境搭建

本文详细介绍了如何在Linux环境下配置Hadoop的伪分布式模式,包括修改配置文件如core-site.xml、hdfs-site.xml等,启动Namenode、Datanode、Resourcemanager、NodeManager和HistoryServer,并通过jps检查。此外,还演示了如何运行MapReduce的WordCount例子,从创建输入文件、上传到HDFS,到运行Job并查看输出结果。
摘要由CSDN通过智能技术生成

一、修改配置HDFS运行模式和运行时目录   core-site.xml 我的修改如下(配置文件都在(/opt/installed/hadoop-2.7.3/etc/hadoop目录下)):

ebb7299318e974340afb884b7eb4ef4f.png

配置hdfs-site.xml

c26b769215e14cd71bcdfee42c12304c.png

配置hadoop-env.sh

141de6a3c87946a49de001666f267b3e.png

配置yarn  yarn-env.sh

1e8a68aca3b0cd0ba3e9af4e94dfe652.png

配置yarn-site.xml

49811eb9e6bfa7004324abf687fc6954.png

配置maped-site.xml

你会发现没有mapred-site.xml我们需要把mapred-site.xml.template改为mapred-site.xml命令如下:

sudo mv mapred-site.xml.template mapred-site.xml

f047f9f996bed62040fd513d1109ec79.png

配置maped-env.sh

d18aa1f2e0f810675ea90ecc9c9ad2f6.png

配置历史服务

6bc0ef9253cd856dae4fe5bb432cacb2.png

配置日志功能在yarn-site.xml添加下列内容

b946f75eb58a6f7ca589df7f4c4427bc.png

格式化Namenode

35d84db307fea95a1cbe69dcc885683e.png

4b154c1e36766f12b8f8a4141ff30f6c.png

启动Namenode使用jps检查是否成功如下图启动成功

1505b72815af6cff1281d81b2befd7d4.png

启动Datanode

75b8d981fd07d391380968908643278b.png

使用jps查看是否启动成功

1932e040aaaf52a6a62e30aa7daa0f0b.png

接下来启动resourcemanager

f81713f0dbbe77f45ebbe71320cac836.png

启动nodemanager

1faa02fde671428969ca4441db59a82a.png

启动历史服务

4a776edc96242622fabeaae5694db9eb.png

以上都是单点启动

 启动dfs服务和yarn服务的另外方式

# 开启dfs,包括namenode,datanode,secondarynamenode服务

sbin/start-dfs.sh 

# 开启yarn,包括resourcemanager,nodemanager

sbin/start-yarn.sh

# 开启所有的服务(过时)

sbin/start-all.sh

hdfs的web客户端是http://192.168.32.20:50070(如果不能访问在其他一切正常的情况下关闭虚拟机防火墙)

0c46bd5353511ed8a94b307310aed8bf.png

YARN的Web客户端端口号是8088,通过http://192.168.32.20:8088/可以查看

6d9b5c8f4aa1f80c076d8d7d12ff5f64.png

运行MapReduce Job

在Hadoop的share目录中,自带jar包,里面有一些MapReduce的例子,位置在share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar。wordCount为例。

首先在hdfs创建输入目录

bin/hdfs dfs -mkdir -p /wordcounttest/input

创建测试文件wc.input,内容如下:

创建data目录

mkdir data

进入data目录

cd data

创建wc.input

vim wc.input

在文件中输入,如下内容

hadoop mapreduce hive

hbase spark storm

sqoop hadoop hive

spark hadoop

将wc.input文件上传到HDFS的/wordcounttest/input目录下:

bin/hdfs dfs -put data/wc.input /wordcounttest/input

查看/wordcounttest/input目录

bin/hdfs dfs -ls /wordcounttest/input

运行WordCount MapReduce Job

bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.5.jar wordcount  /wordcounttest/input /wordcounttest/output

查看输出结果目录

bin/hdfs dfs -ls /wordcounttest/output

c9dbd752099817af0dc1eceeada6f19f.png

文章如有侵权,请联系公众号删除

作者:fly1157932256 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值