在安装这些之前你确保已经安装了JDK,并在/etc/profile里面写入了
export JAVA_HOME=/usr/java/jdk1.8
export PATH=.:${JAVA_HOME}/bin:$PATH
准备工作:
设置主机名
执行vi /etc/hosts
将本机IP 取个名字
设置免等
执行命令 (1)ssh-keygen -t rsa
(2)cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
1、第一步先安装Hadoop
(1)下载Hadoop安装包
(2)解压Hadoop安装包
(3)修改/etc/profile
export JAVA_HOME=/usr/java/jdk1.8
export HADOOP_HOME=/home/hadoop
export PATH=.:${JAVA_HOME}/bin:${HADOOP_HOME}/bin:$PATH
(4)source /etc/profile
(5)修改conf目录下的配置文件
1、hadoop-env.sh
export JAVA_HOME=/usr/java/jdk1.8
2、core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://m:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
</property>
</configuration>
3.hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
4、mapred-site.xml
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>m:9001</value>
</property>
</configuration>
(6)hadoop namenode -format
(7)$HADOOP_HOME/sbin/start-all.sh
2、安装ZK
这个之后尝试
3、安装Hbase
修改/etc/profile
#hadoop
export HADOOP_HOME=/home/hadoop
#Hbase config
#java config
export JAVA_HOME=/usr/java/jdk1.8.0_181-amd64
export PATH=.:${JAVA_HOME}/bin:${HADOOP_HOME}/bin:${HBASE_HOME}/bin:$PATH
修改文件hbase-env.sh
- export JAVA_HOME=/usr/local/jdk1.8
- export HBASE_MANAGES_ZK=true
true代表品用自己的ZK,false,用外部的ZK。
hbase-site.xml
<property>
<name>hbase.rootdir</name>
<value>hdfs://m:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>m</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
启动hbase之前要先启动hadoop,确保hadoop可写入数据。
执行命令start-hbase.sh
原文链接:https://blog.csdn.net/xumajie88/article/details/25518017