Hadoop3.x集成HBase

HBase作为Hadoop家族中实现高并发的利器,我们来看看怎么进行集成。

1. 下载并上传到服务器

目前使用2.3.5版本

wget https://mirrors.bfsu.edu.cn/apache/hbase/2.3.5/hbase-2.3.5-bin.tar.gz

#wget https://mirrors.bfsu.edu.cn/apache/hbase/2.4.4/hbase-2.4.4-bin.tar.gz

2. 解压

tar zxvf hbase-2.3.5-bin.tar.gz -C /app/

ln -s /app/hbase-2.3.5 /app/hbase

3. 修改配置文件

3.1 修改hbase-env.sh
export JAVA_HOME=/app/jdk1.8.0_281
#表示不引用hbase自带的zookeeper,用我们自己安装的
export HBASE_MANAGES_ZK=false
3.2 修改hbase-site.xml
<!-- 参考文档: https://www.cnblogs.com/nexiyi/p/hbase_config_94.html -->
<!-- 指定 hbase 是分布式的 --> 
<property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
</property>
<!-- hbase 在 zookeeper 中的缓冲的节点目录  -->
<property>
    <name>zookeeper.znode.parent</name>
    <value>/hbase</value>
</property>
<property>
    <!-- 指定 hbase 在 HDFS 上存储的路径 mycluster为hdfs的nameservice名称--> 
    <name>hbase.rootdir</name> 
    <value>hdfs://mycluster/hbase</value>
</property>
<property>
    <!-- 指定 zk 的地址,多个用","分割 --> 
    <name>hbase.zookeeper.quorum</name> 
    <value>hadoop101:2181,hadoop102:2181,hadoop103:2181</value>
</property>
3.3 修改regionservers
hadoop101
hadoop102
hadoop103
3.4 添加文件backup-masters
echo "hadoop103" > /app/hbase/conf/backup-masters
3.5 链接hdfs配置
ln -s $HADOOP_HOME/etc/hadoop/core-site.xml /app/hbase/conf/core-site.xml
ln -s $HADOOP_HOME/etc/hadoop/hdfs-site.xml /app/hbase/conf/hdfs-site.xml
3.6 添加环境变量
sudo vi /etc/profile.d/env.sh
# 添加以下内容
export HBASE_HOME=/app/hbase
export PATH=$HBASE_HOME/bin:$PATH

# 刷新环境变量
source /etc/profile
3.7 分发文件
sudo /home/hadoop/bin/xsync /etc/profile.d/env.sh
xsync /app/hbase

4. 启动集群

  1. 首先确保zookeeper和hdfs启动正常
/app/hbase/bin/start-hbase.sh

/app/hbase/bin/stop-hbase.sh
  1. 验证是否启动成功,访问地址:http://hadoop101:16010/master-status


欢迎关注微信公众号,回复hadoop,获取从零开始Hadoop系列完整文档:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
尚硅谷提供的Hadoop3.x上课资料通常包含了理论学习和实操练习两大部分: ### 理论部分 1. **Hadoop基础知识**:包括Hadoop的发展历程、版本更新、核心组件(如MapReduce、YARN、HDFS等)、工作原理以及各组件之间的交互流程。 2. **HDFS详解**:深入探讨Hadoop Distributed File System的工作机制,如数据存储策略、副本机制、文件系统路径结构等。 3. **MapReduce框架**:详细讲解MapReduce的设计理念、工作流程、任务划分(map阶段和reduce阶段)、性能优化技巧及常见错误处理。 4. **YARN架构**:了解ResourceManager、NodeManager的功能和作用,以及资源分配算法、应用生命周期管理等关键内容。 5. **Hadoop生态体系**:涉及大数据处理工具的集成应用,例如Spark、Hive、HBase、Flume、Zookeeper等如何配合Hadoop共同构建大数据分析环境。 ### 实践操作部分 1. **环境搭建**:指导如何在本地或云平台上安装配置Hadoop集群,包括操作系统选择、依赖库准备、集群初始化等步骤。 2. **基本命令操作**:熟悉Hadoop及相关工具的基本命令,如HDFS的mkdir、ls、rm等,以及MapReduce的提交、监控命令等。 3. **实战项目**:通过编写脚本、设计数据处理流程等方式,完成实际的数据导入、清洗、转换、聚合等一系列任务,体验从数据到洞察的全过程。 4. **故障排查与优化**:学习常见的运行问题及其解决策略,同时对集群性能进行优化,提升系统效率。 ### 相关问题: 1. Hadoop3.x相较于之前的版本有何改进和新增特性? 2. 在使用Hadoop过程中遇到的问题和解决方案有哪些? 3. Hadoop在哪些场景下特别适合应用,又存在哪些局限性?
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值