1) Java:(hadoop已经安装了), 2) Hadoop 0.20.x / Hadoop-2.x 已经正确安装( hadoop安装参考hadoop2完全分布式最新高可靠安装文档),并且可以启动 HDFS 系统,并且需要确保hdfs能够上传和读写文件。例如: 我们上传hbase的所有xml配置文件 ![]() 上传文件: ![]() 上面说明,hdfs运行正常。 3) ssh 必须安装ssh , sshd 也必须运行,这样Hadoop的脚本才可以远程操控其他的Hadoop和Hbase进程。ssh之间必须都打通,不用密码都可以登录。ssh打通可以参考:CentOS6.4之图解SSH无验证双向登陆配置、linux(ubuntu)无密码相互登录高可靠文档 4) NTP:集群的时钟要保证基本的一致。稍有不一致是可以容忍的,但是很大的不一致会 造成奇怪的行为。 运行 NTP 或者其他什么东西来同步你的时间. 如果你查询的时候或者是遇到奇怪的故障,可以检查一下系统时间是否正确! 设置集群各个节点时钟:date -s “2012-02-13 14:00:00” ubuntu可以参考ubuntu ntp时间同步服务器搭建与使用 5) ulimit 和 nproc: HBase是数据库,会在同一时间使用很多的文件句柄。大多数linux系统使用的默认值1024是不能满足的,会导致FAQ:FAQ: Why do I see "java.io.IOException...(Too many open files)" in my logs?异常。还可能会发生这样的异常 所以你需要修改你的最大文件句柄限制。可以设置到10k. 你还需要修改 hbase 用户的 nproc,如果过低会造成 OutOfMemoryError异常。 需要澄清的,这两个设置是针对操作系统的,不是Hbase本身的。有一个常见的错误是Hbase运行的用户,和设置最大值的用户不是一个用户。在Hbase启动的时候,第一行日志会现在ulimit信息,所以你最好检查一下。 6)在Ubuntu上设置ulimit 可以先查看当前用户 ulimit: ulimit -n 设置ulimit: 如果你使用的是Ubuntu,你可以这样设置: 在文件 /etc/security/limits.conf 添加一行,如: 可以把 hadoop 替换成你运行Hbase和Hadoop的用户。如果你用两个用户,你就需要配两个。还有配nproc hard 和 softlimits. 在文件 /etc/security/limits.conf 添加一行下面内容: 在 /etc/pam.d/common-session 加上这一行: 否则在 /etc/security/limits.conf上的配置不会生效. 还有注销再登录,这些配置才能生效! -------------------------------------------------------------------------------------------------------------- 下面为什么对上面设置,做一下说明: 原文地址:http://www.aboutyun.com/thread-7746-1-1.html |
Hbase集群安装前注意事项
最新推荐文章于 2024-05-14 05:32:08 发布