Hadoop 初探——配置完成后第二天如何查看并验证(单机版)

本文介绍如何在Linux Ubuntu虚拟机环境下启动Hadoop并进行基本验证,包括使用jps命令检查进程、通过浏览器查看Hadoop状态页面等步骤。此外还演示了如何上传本地文件到HDFS,并运行wordcount demo来完成数据处理。
摘要由CSDN通过智能技术生成

Hadoop 初探——配置完成后第二天如何查看并验证(单机版)

一、运行Hadoop(Linux Ubuntu虚拟机下)

1.进入/hadoop-3.1.4文件夹下,输入命令sbin/start-dfs.sh。出现如下结果即为成功。

2.使用jps命令查看namenode和datanode数量。

3.输入netstat -tpnl | grep java 查看当前可用端口。

4.在Ubuntu的浏览器中输入http://lin:9870查看网页版信息。

说明:lin对应的即为我本机的端口号192.168.221.128,后面的9870在上图中除了本机外选择其余的一个即可。

二、运行wordcount demo

参考:https://www.cnblogs.com/lijingchn/p/5574476.html

1.在本地新建一个.txt文件。输入cat>haha.txt<ENTER>后输入文件内容

说明:输入cat haha.txt可以查看文件内容。

2.在分布式文件系统(hdfs)中新建一个test文件夹,用于上传我们的测试文件haha.txt。

在/hadoop-3.1.4目录下运行如下命令:4.

# 在hdfs的根目录下建立了一个test目录
bin/hdfs dfs -mkdir /test

# 查看HDFS根目录下的目录结构
bin/hdfs dfs -ls /

结果如下:

 

3.将本地haha.txt文件上传到test目录中。

# 上传
bin/hdfs dfs -put /home/hadoop/haha.txt /test/
# 查看
bin/hdfs dfs -ls /test/

结果如下:

4.运行wordcount demo。

# 将运行结果保存在/test/out目录下
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.4.jar wordcount /test/haha.txt /test/out
# 查看/test/out目录下的文件
bin/hdfs dfs -ls /test/out

 结果如下:

5. 查看运行结果。

# 查看part-r-00000中的运行结果
bin/hadoop fs -cat /test/out/part-r-00000

 结果如下:

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值