Hadoop安装说明:
首先将hadoop源文件放置在分布式机器桑的统一的一个目录之下,然后修改所有机器上hadoop源文件中的conf目录之下的core-site.xml配置文件,将参数fs.default.name的值设置为namenode所在的机器名,eg: hdfs://hostname:9000(格式:hdfs://ip或者hostname:端口号);最好将hadoop.tmp.dir也设置一下,不然默认的tmp目录为/tmp,可设置为hadoop源文件目录/tmp/hadoop-tmp,这样辨识度比较高。在hdfs-site.xml文件中最重要的设置就是dfs.replication,此值默认是3,如若按需求改变,则可以自己指定参数值。在文件hadoop_env.sh中,只需要加一句export JAVA_HOME=/root/jdk,指定jdk的路径即可。在namenode的结点上的conf中的master中写上master的ip或者hostname,regionserver中写上集群中的regionserver的ip或者hostname。
安装完后,第一次启动之前要进行format,即进入namenode的hadoop的bin目录之下,执行./hadoop namenode -format.格式化成功后,即可以在bin目录之下启动hadoop:./start-all.sh .停止hadoo也是在bin目录之下:./stop-all.sh 。
Hbase安装说明:
首先将hbase源文件放在分布式机器上的统一的一个目录之下,然后修改所有机器上hbase源文件中的conf目录之下的hbase-site.xml文件,将参数hbase.rootdir的值设置为hadoop的namenode所在的地址,eg:hdfs://hostname:9000/hbase(说明:格式是hdfs://ip或者hostname:端口号/目录);参数hbase.zookeeper.quorum的值需指定将要在集群中充当zookeeper的机器,eg:db15,db17,db18(说明:用hostname或是ip都可以,机器之间用逗号隔开)。如若没有特殊要求,此文件的其他参数都可以不再人为的添加,使用默认即可。在hbase-env.sh文件中,需导出jdk和hbase的路径,eg:export JAVA_HOME=/data/dm/mgbase/jdk export HBASE_HOME=/data/dm/mgbase (export PATH=$PATH:$HBASE_HOME/bin export HBASE_MANAGES_ZK=true)。(说明:括号中为可选项)。在需要设置为master的机器上,需要在conf目录中的regionserver文件中,指定充当regionserver角色的机器名。(regionserver中可用ip或者hostname)
配置完成后,即可以在master结点上的bin之下,启动hbase:./start-hbase.sh。停止hbase:./stop-hbase.sh。