这里我们已经安装好Hadoop,并且已经配置好了环境变量。
安装相关文章:
http://www.cnblogs.com/xia520pi/archive/2012/05/16/2503949.html
http://blog.csdn.net/gaopeng0071/article/details/10216303
Hadoop基本参数含义:
http://blog.csdn.net/yangjl38/article/details/7583374
Hadoop操作命令
基本命令:http://blog.csdn.net/gaopeng0071/article/details/11003205
hadoop dfsadmin -report 命令详解:http://blog.csdn.net/fiberlijun/article/details/4826200
Hadoop命令详解:http://www.cnblogs.com/linjiqin/p/3147856.html
参数监控metrics
http://blog.csdn.net/mrtitan/article/details/8984980
Hadoop源码学习网站:http://www.iigrowing.cn/hadoop
Hadoop机器运行一段时间后hadoop不能stop-all.sh的问题:http://enyuxuexi.blog.chinaunix.net/uid-21807208-id-3482915.html
参考网站:
http://blog.csdn.net/bychjzh/article/details/7830508
http://blog.csdn.net/shirdrn/article/details/9731423
http://blog.csdn.net/gaopeng0071/article/details/10216303
1 我们运行下 jps命令,可看到,系统中除了一个jps主线程,无其他线程
2 我们进入解压后的Hadoop启动脚本目录,不同的hadoop版本对应的启动目录不一样,有的在bin下有的在sbin下。
3 在进行Hadoop启动前,我们需要对HDFS进行下格式化,执行命令:bin/hdfs namenode -format
4 执行启动脚本:sbin/start-all.sh
5 然后会一个一个的启动,会让你输入大概4次密码。通过jps命令可以看到Hadoop的服务已经启动了
6 此处会发现个问题,这个问题我纠结了3个小时,就是启动任务中没有namenode的节点,最后发现应该使用root用户去启动,我想这个可能和我的xml配置有关。
正确启动结果如图:
7 在我的电脑上访问Hadoop地址:http://192.168.1.102:50070/,出现下面界面那就ok了。
问题:
1、在启动hadoop后,我们使用jps命令查看进程,有时会发现namenode节点没启来。
解决方案:切换成root用户,在进行启动,这时namenode就能够起来,我想应该是我启动用户的权限问题。