hbase伪分布安装部署
- 一 、关闭防火墙
- 1. 查看防火墙状态:
- 2. 暂时关闭防火墙
- 3. 永久关闭防火墙
- 二 、关闭selinux
- 1. 查看selinux状态
- 2. 临时关闭selinux
- 3. 永久关闭selinux
- 三 、修改主机名
- 1. 修改临时主机名
- 2. 修改主机名
- 四、 设置免密
- 1. 获取密钥
- 2. 复制密钥到~/.ssh/authorized_keys
- 3. 测试ssh登录
- 4. 退出ssh登录
- 五、 准备安装环境
- 1. 进入xshell,点击左上角文件下新建连接
- 2. 名称一行可任意填写,主机一行填写虚拟主机IP地址
- 3. 设置好后点击连接在弹出窗口输入登录账户,点击确定
- 4. 选择密码验证(一般默认),输入密码(登录账户的密码)
- 5. 成功连接虚拟主机后,进入需要存放安装包或应用程序的目录,例如:
- 6. 找到自己Windows主机上hbase需要的压缩包,把它们通过xshell拉进虚拟主机
- 7. 解压软件包
- (1)解压jdk
- (2)解压Hadoop
- (3)解压hbase
- 8. 重命名文件
- (1)jdk
- (2)hadoop
- (3)hbase
- 六、 配置jdk
- 1. 进入系统配置文件
- 2. 添加环境变量
- 3. 刷新系统配置文件
- 4. 查看Java版本
- 七 、配置Hadoop
- 1. 进入系统配置文件
- 2. 添加环境变量
- 3. 刷新系统配置文件
- 4. 进入Hadoop配置文件目录
- 5. 修改配置文件
- (1). vim hadoop-env.sh
- (2). vim yarn-env.sh
- (3). vim core-site.xml
- (4). vim hdfs-site.xml
- (5). cp mapred-site.xml.template mapred-site.xml
- (6). vim mapred-site.xml
- (7). vim yarn-site.xml
- 6. 初始化hadoop
- 7. 启动hadoop
- 8. 查看端口
- 八 、配置hbase
- 1. vim /etc/profile
- 2. vim /usr/local/hbase/conf/hbase-env.sh
- 3. vim /usr/local/hbase/conf/hbase-site.xml
- 九 、启动hadoop集群与hbase
- 1. cd /usr/local/hbase/bin
- 2. jps
- 3. hbase shell
对时:ntpdate cn.pool.ntp.org
一 、关闭防火墙
1. 查看防火墙状态:
systemctl status firewalld.service
2. 暂时关闭防火墙
systemctl stop firewalld.service
3. 永久关闭防火墙
systemctl disable firewalld.service
二 、关闭selinux
1. 查看selinux状态
sestatus
2. 临时关闭selinux
setenforce 0
3. 永久关闭selinux
vim /etc/selinux/config
修改SELINUX=disabled
三 、修改主机名
1. 修改临时主机名
hostnamectl set-hostname node1
2. 修改主机名
vim /etc/hosts
添加192.168.100.10 node1(IP+ 主机名)
四、 设置免密
1. 获取密钥
ssh-keygen -t rsa
2. 复制密钥到~/.ssh/authorized_keys
cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
3. 测试ssh登录
ssh localhost
4. 退出ssh登录
exit
五、 准备安装环境
1. 进入xshell,点击左上角文件下新建连接
2. 名称一行可任意填写,主机一行填写虚拟主机IP地址
3. 设置好后点击连接在弹出窗口输入登录账户,点击确定
4. 选择密码验证(一般默认),输入密码(登录账户的密码)
5. 成功连接虚拟主机后,进入需要存放安装包或应用程序的目录,例如:
cd /usr/local
6. 找到自己Windows主机上hbase需要的压缩包,把它们通过xshell拉进虚拟主机
7. 解压软件包
(1)解压jdk
tar zxvf /usr/local/jdk-8u221-linux-x64.tar.gz
(2)解压Hadoop
tar zxvf /usr/local/hadoop-2.7.3.tar.gz
(3)解压hbase
tar zxvf /usr/local/hbase-1.4.9-bin.tar.gz
8. 重命名文件
(1)jdk
mv jdk1.8.0_221 jdk
(2)hadoop
mv hadoop-2.7.3 hadoop
(3)hbase
mv hbase-1.4.9 hbase
六、 配置jdk
1. 进入系统配置文件
vim /etc/profile
2. 添加环境变量
export JAVA_HOME=/usr/local/jdk
export PATH=.:$JAVA_HOME/bin:$PATH
3. 刷新系统配置文件
source /etc/profile
4. 查看Java版本
java -version
七 、配置Hadoop
1. 进入系统配置文件
vim /etc/profile
2. 添加环境变量
export HADOOP_HOME=/usr/local/hadoop
export PATH=.:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
3. 刷新系统配置文件
source /etc/profile
4. 进入Hadoop配置文件目录
cd /usr/local/hadoop/etc/hadoop/
5. 修改配置文件
(1). vim hadoop-env.sh
修改前:
export JAVA_HOME=${JAVA_HOME}
修改后:
export JAVA_HOME=/usr/local/jdk
(2). vim yarn-env.sh
修改前:
# export JAVA_HOME=/home/y/libexec/jdk1.6.0/
修改后:
export JAVA_HOME=/usr/local/jdk
(3). vim core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://node1:9000</value>
</property>
</configuration>
(4). vim hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
(5). cp mapred-site.xml.template mapred-site.xml
(6). vim mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
(7). vim yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
6. 初始化hadoop
hadoop namenode -format
7. 启动hadoop
start-all.sh
8. 查看端口
jps
八 、配置hbase
1. vim /etc/profile
export HBASE_HOME=/usr/local/hbase
export PATH=$PATH:$HBASE_HOME/bin
2. vim /usr/local/hbase/conf/hbase-env.sh
修改前:
# export JAVA_HOME=/usr/java/jdk1.6.0/
# export HBASE_MANAGES_ZK=true
修改后:
export JAVA_HOME=/usr/local/jdk
export HBASE_MANAGES_ZK=true
3. vim /usr/local/hbase/conf/hbase-site.xml
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://node1:9000/hbase</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>node1</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
九 、启动hadoop集群与hbase
1. cd /usr/local/hbase/bin
start-hbase.sh