回顾安装Hadoop以及Hbase遇到了问题: 1.掌握VMware虚拟机、CentOs操作系统、xshell工具、winSCP远程工具。 2.在xshell进入虚拟机的操作环境中,无法运用命令进行解压缩包。 **原因:没有规定好安装路径,在虚拟机的路径中没有该目录。** **解决方法:规定正确的路径** 3.在Hadoop伪分布的过程中最后无法格式化文件系统。 **报错:无法找到hdfs命令。** **原因:没有定义Hadoop系统环境变量** **解决方法:在 /etc/profile 文件中添加hadoop环境变量即可。 在 /etc/profile 文件中最后添加** 用 vi /etc/profile 去打开文件 export HADOOP_HOME=/usr/hadoop(自己的hadoop安装路径) export PATH=:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH 添加之后: **报如错误:JAVA_HOME is not set and could not be found** **原因:JAVA_HOME环境没配置正确** **解决方法:重新声明一遍JAVA_HOME,找对路径!!!** 之后: **报错:publickey,gssapi-keyex,gssapi-with-mic,password** **原因:如果配置ssh时没有配置无密码登录,便会出现如上报错, 而配成无密码登陆后,便成功了。** **解决方法:** 第一步:生成公钥和私钥: [root@localhost hadoop]# ssh-keygen -t rsa 第二步:创建authorized_keys文件并修改权限 [root@localhost ~]# cd .ssh [root@localhost .ssh]# touch authorized_keys [root@localhost .ssh]# chmod 600 authorized_keys 第三步:将公钥追加到authorized_keys文件 [root@localhost .ssh]# cat id_rsa.pub >> authorized_keys 第四步:重新启动Hadoop 4.在hbase进入shell后不能在shell中运用bin/stop-hbase.sh去直接关闭hbase, 必须用exit去退出shell后在关闭hbase