说在前面
一直又想写博客的想法,而自己又太懒,感觉也写不出来什么。恰巧在工作中花了较多时间来搭建Ambari和hadoop环境,集成了ldap、kerberos、hue、es等等;正好借这个机会开始写博客吧,把自己遇到的问题及经验分享出来,希望自己能坚持下来。
环境配置
系统环境Centos6.5,Ambari 2.5.1,HDP2.6,开启了Kerberos服务
1、首先要认识到:hadoop的输入输出都是在hdfs文件系统上的,而hdp自带的wordcount例子需要有输入文件,所以需要先上传输入文件到hdfs上。可以用hadoop fs -ls /[文件目录]查看你所需要查看的目录,如下: