SS00007.spark——|Hadoop&Spark环境部署.v07|——|Hadoop.v07|集群测试|

一、集群测试
### --- HDFS 分布式存储初体验
~~~     从linux本地文件系统上传下载文件验证HDFS集群工作正常
~~~     HDFS访问地址:http://hadoop01:50070/

~~~     # 本地hoome目录创建一个文件
[root@hadoop01 ~]# vim test.txt
hello hdfs
~~~     # 创建一个目录

[root@hadoop01 ~]# hdfs dfs -mkdir -p /test/input
~~~     # 上传linxu文件到Hdfs

[root@hadoop01 ~]# hdfs dfs -put /root/test.txt /test/input
~~~     # 从Hdfs下载文件到linux本地

[root@hadoop01 ~]# hdfs dfs -get /test/input/test.txt
### --- MapReduce 分布式计算初体验

~~~     # 在HDFS文件系统根目录下面创建一个wcinput文件夹
[root@hadoop01 ~]# hdfs dfs -mkdir /wcinput
~~~     # 在/root/目录下创建一个wc.txt文件(本地文件系统)
[root@hadoop01 ~]# touch wc.txt
~~~     # 编辑wc.txt文件

[root@hadoop01 ~]# vim wc.txt
#在文件中输入如下内容
hadoop mapreduce yarn
hdfs hadoop mapreduce
mapreduce yarn yanqi
yanqi
yanqi
### --- 上传wc.txt到Hdfs目录/wcinput下
[root@hadoop01 ~]# hdfs dfs -put wc.txt /wcinput
 
~~~     # 回到Hadoop目录/opt/yanqi/servers/hadoop-2.9.2
~~~     执行程序
[root@hadoop01 ~]# cd /opt/yanqi/servers/hadoop-2.9.2
[root@hadoop01 hadoop-2.9.2]# hadoop jar /opt/yanqi/servers/hadoop-2.9.2/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.9.2.jar wordcount /wcinput /wcoutput
### --- 查看结果

[root@hadoop01 hadoop-2.9.2]# hdfs dfs -cat /wcoutput/part-r-00000
# 在文件中输入如下内容    1
hadoop  2
hdfs    1
mapreduce   3
yanqi   3
yarn    2
二、查看详细日志:http://hadoop01:8088/cluster
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

yanqi_vip

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值