2021 Ubuntu20.04下最新稳定版的Hadoop与Hbase配置

HBASE实验报告

  1. 去清华源下载最新Hadoop,适配Ubuntu 20.04 LTS amd64的版本
wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/current/$(curl https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/current/ |grep -o 'hadoop-[[:digit:]]\.[[:digit:]]\.[[:digit:]]'|head -n 1).tar.gz
  1. 解压Hadoop
sudo tar –zxvf  hadoop-* –C  /opt
  1. 重命名
sudo mv /opt/hadoop-* /opt/hadoop
  1. 修改文件夹权限,避免后续sudo
sudo chown -R $USER /opt/hadoop
  1. 添加环境变量
echo "export PATH=$PATH:/opt/hadoop/bin:/opt/hadoop/sbin">> ~/.bashrc
source ~/.bashrc
  1. 安装java
sudo apt install openjdk-8-jre-headless openjdk-8-jdk-headless
  1. 添加hadoop所需的环境变量
echo "export JAVA_HOME=/usr">>/opt/hadoop/etc/hadoop/hadoop-env.sh
echo "export JAVA_HOME=/usr">>/opt/hadoop/etc/hadoop/yarn-env.sh
  1. 配置ssh
#生成公钥私钥
ssh-keygen
#然后不停回车
#添加authorithed_keys
ssh-copy-id -i /home/$USER/.ssh/id_rsa.pub $USER@localhost
  1. 修改hadoop相关xml配置文件
    1. 向/opt/hadoop/etc/hadoop/mcore-site.xml添加
    <configuration>
    <property>
    <name>hadoop.tmp.dir</name>
    <value>file:/opt/hadoop/tmp</value>
    <description>location to store temporary files</description>
    </property>
    <property>
    <name>fs.defaultFS</name>
    <value>hdfs://localhost:9000</value>
    </property>
    </configuration>
    
    1. 向/opt/hadoop/etc/hadoop/hdfs-site.xml添加
    <property>
    <name>dfs.replication</name>
    <value>1</value>
    </property>
    <property>
    <name>dfs.namenode.name.dir</name>
    <value>file:/opt/hadoop/tmp/dfs/name</value>
    </property>
    <property>
    <name>dfs.datanode.data.dir</name>
    <value>file:/opt/hadoop/tmp/dfs/data</value>
    </property>
    
    1. 向/opt/hadoop/etc/hadoop/mapred-site.xml
    <configuration>
        <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
    </configuration>
    
    
    1. 向/opt/hadoop/etc/hadoop/yarn-site.xml添加
    <configuration>
        <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
        </property>
    </configuration>
    
  2. 初始化namenode
hdfs namenode -format
  1. 开启Hadoop
#不要管warning,等待10s后自动开始
start-all.sh

#也可以运行下面两条命令
start-dfs.sh
start-yarn.sh
  1. 去清华源下载最新HBase,适配Ubuntu 20.04 LTS amd64的稳定版本
wget https://mirrors.tuna.tsinghua.edu.cn/apache/hbase/stable/$(curl https://mirrors.tuna.tsinghua.edu.cn/apache/hbase/stable/ |grep -o 'hbase-[[:digit:]]\.[[:digit:]]\.[[:digit:]]'|head -n 1)-bin.tar.gz
  1. 解压HBase
sudo tar -zxvf  hbase-* -C /opt/
  1. 重命名
sudo mv /opt/hbase-* /opt/hbase
  1. 修改文件夹权限,避免后续sudo
sudo chown -R $USER /opt/hbase
  1. 添加环境变量
echo "export PATH=$PATH:/opt/hbase/bin">> ~/.bashrc
source ~/.bashrc
  1. 添加HBase所需的环境变量
echo "export JAVA_HOME=/usr
export HBASE_DISABLE_HADOOP_CLASSPATH_LOOKUP=true">>/opt/hbase/conf/hbase-env.sh

第二条export来自于博客解决Hbase和Hadoop之间jar包冲突
18. 修改HBase相关xml配置文件
向/opt/hbase/conf/hbase-site.xml添加

<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://localhost:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
</configuration>
  1. 关闭Hadoop安全模式
hadoop dfsadmin -safemode leave

此行为来自博客解决hbase shell异常启动
20. 打开Hbase

start-hbase.sh
  1. 开启localmaster
local-master-backup.sh start 2 3 5
  1. 开启localregionservers
local-regionservers.sh start 2 3 4 5
  1. 打开hbase shell
hbase shell
  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值