配置HADOOP_HOME以及部分功能

配置HADOOP_HOME

 

配置完成后可以直接通过hadoop中的命令执行以下操作

 

hdfs开启namenode、datanode

格式化文件系统:

 $ bin/hdfs namenode -format 

启动服务:

 $ sbin/hadoop-daemon.sh start namenode

$ sbin/hadoop-daemon.sh start datanode

上传文件测试:

在HDFS系统中创建目录存放上传文件 :

$ bin/hdfs dfs -mkdir /input 

存储文件:

$ bin/hdfs dfs -put wc.txt /input 

查看文件:

 $ bin/hdfs dfs -cat /output/wc.txt 

删除hdfs中的文件或者文件夹

hadoop fs -rm -r /aaa

查看hdfs中的文件或文件夹

hadoop fs -tail -f test.txt

(创建输入流

/bin/hadoop fs -mkdir /input 

文件放入到input

./bin/hadoop fs -put test.txt /input

文件输出

./bin/hadoop fs -cat /output/*)

web控制台浏览器: http://hadoop01:50070/ 

http://192.168.2.131:50070/

yarn开启resourcemanager、nodemanager

$ sbin/yarn-daemon.sh start resourcemanager 

$ sbin/yarn-daemon.sh start nodemanager

 

启动yarn $ sbin/yarn-daemon.sh start resourcemanager 

$ sbin/yarn-daemon.sh start nodemanager 

web控制台 http://192.168.1.131:8088/cluster

 

日志文件:

启动historyserver服务

 $ sbin/mr-jobhistory-daemon.sh start historyserver

重新执行wordcount,查看日志,需要重新指定输出目录 

$ bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount /input/ /output2

 

---报错---- WARN security.UserGroupInformation: PriviledgedActionException as:johnny (auth:SIMPLE) cause:org.apache.hadoop.mapred. FileAlreadyExistsException: Output directory hdfs://bigdata01:8020/out01 already exists org.apache.hadoop.mapred.FileAlreadyExistsException: Output directory hdfs://bigdata01:8020/out01 already exists ---解决:因为hdfs上面存在着相同的目录,输出目录每次要不相同(不存在)

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值