HBase完全分布式配置(上)hadoop篇 保姆级教程(近乎零基础跟着配也能配对)(1)

img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取



vim /etc/sysconfig/selinux


改成



SELINUX=disabled


### 1.6配置ssh免密登录



ssh-keygen -t rsa



cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys


基础配置详细(带截图)可以看我的Hadoop和hbase伪分布式模式配置一文。这里不再详细展开,接下来转到tabby连接上并上传jdk、hadoop和hbase,同样不再赘述。解压、改名,详见上一篇文章,这里只截取环境变量配置好的图片。


### 1.7jdk解压、改名



mkdir -p /export/server


解压jdk:



tar -zxvf /usr/local/jdk-8u401-linux-x64.tar.gz -C /export/server/


改名jdk:



mv /export/server/jdk1.8.0_401 /export/server/jdk


### 1.8配置并应用环境变量



vim /etc/profile



export JAVA_HOME=/export/server/jdk
export PATH= P A T H : PATH: PATH:JAVA_HOME/bin


![](https://img-blog.csdnimg.cn/direct/eedbf4bb015344f685ae82ce41f1c0b7.png)



source /etc/profile


到此为止可以把这台虚拟机克隆两份了,分别叫node2和node3,注意要放到不同的文件夹下。


![](https://img-blog.csdnimg.cn/direct/edddb73ed3d445e78011e0e7e5e84d04.png)


![](https://img-blog.csdnimg.cn/direct/011437ffb9aa468fa8174ed5241cba16.png)


![](https://img-blog.csdnimg.cn/direct/12c8f3cfb4174986a49ccae9ebfe52c9.png)


![](https://img-blog.csdnimg.cn/direct/e281d584ee4e4e52b8cc2ed2caf68da3.png)


![](https://img-blog.csdnimg.cn/direct/66d867b37fad4944a9c246c465815de0.png)


node3同理


## 2.克隆之后的修改(两台同时修改,不要弄混)


### 2.1改主机名(是几改几)



hostnamectl set-hostname node2



hostnamectl set-hostname node3


### 2.2修改静态ip


三台虚拟机的ip不能相同,最后一位改下就行,别忘了出来重启下网卡



vim /etc/sysconfig/network-scripts/ifcfg-ens33



systemctl restart network


## 3.hadoop完全分布式配置


### 3.1解压、改名和配置、应用环境变量


解压hadoop:



tar -zxvf /usr/local/hadoop-2.7.7.tar.gz -C /usr/local/


改名hadoop:



mv /usr/local/hadoop-2.7.7 /usr/local/hadoop



vim /etc/profile



export HADOOP_HOME=/usr/local/hadoop
export PATH=.: H A D O O P H O M E / b i n : HADOOP_HOME/bin: HADOOPHOME/bin:HADOOP_HOME/sbin:$PATH



source /etc/profile


### 3.2配置hadoop-env.sh



vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh


![](https://img-blog.csdnimg.cn/direct/0372622470ee415ea91f422b8cdfe788.png)



export JAVA_HOME=/export/server/jdk


### 3.3配置core-site.xml



vim /usr/local/hadoop/etc/hadoop/core-site.xml


![](https://img-blog.csdnimg.cn/direct/2b6d4f097cbd49c2a0f707624eb36cb1.png)



    fs.defaultFS   hdfs://node1:9000  


  hadoop.tmp.dir
  /usr/local/hadoop/tmp
 


### 3.4配置hdfs-site.xml



vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml


![](https://img-blog.csdnimg.cn/direct/08898d63d420456097f2faa80e31fa64.png)



  dfs.replication   3  


 
  dfs.namenode.secondary.http-address
  node3:50090
 


### 3.5配置mapred-env.sh



vim /usr/local/hadoop/etc/hadoop/mapred-env.sh


![](https://img-blog.csdnimg.cn/direct/8cc396cade484593afd52eb0025d4d3a.png)



export JAVA_HOME=/export/server/jdk


### 3.6配置mapred-site.xml


配置前先复制一份(因为没有)



cp /usr/local/hadoop/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/etc/hadoop/mapred-site.xml



vim /usr/local/hadoop/etc/hadoop/mapred-site.xml


![](https://img-blog.csdnimg.cn/direct/e3ab3f7b352f442a8d28aa508387edb5.png)



  mapreduce.framework.name   yarn   ```

3.7配置yarn-env.sh

vim /usr/local/hadoop/etc/hadoop/yarn-env.sh

export JAVA_HOME=/export/server/jdk

3.8配置yarn-site.xml

vim /usr/local/hadoop/etc/hadoop/yarn-site.xml

 <property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
 </property>

 <property>
  <name>yarn.resourcemanager.hostname</name>
  <value>node2</value>
 </property>

3.9配置slaves

vim /usr/local/hadoop/etc/hadoop/slaves

node1
node2
node3


![img](https://img-blog.csdnimg.cn/img_convert/c08fc8c0e837373d95ac992b056f3b23.png)
![img](https://img-blog.csdnimg.cn/img_convert/a7fb38ab4e43de33b7faf9131c4b778b.png)
![img](https://img-blog.csdnimg.cn/img_convert/6d051452447a45f4120dad0a6cfa3bf7.png)

**既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!**

**由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新**

**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618545628)**

node2
node3


[外链图片转存中...(img-1FMVxa3f-1714965619885)]
[外链图片转存中...(img-XPtiJ1eI-1714965619885)]
[外链图片转存中...(img-SgT8RJQN-1714965619885)]

**既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!**

**由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新**

**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618545628)**

  • 29
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
HBase是一个基于Hadoop分布式NoSQL数据库系统,它采用了Hadoop分布式文件系统HDFS作为底层的存储支持,具有高可靠性、高可扩展性、高性能等特点,适用于大规模数据的存储和访问。 下面是HBase完全分布式搭建的步骤: 1. 安装Hadoop 在所有节点上安装Hadoop,并确保Hadoop已经正确配置并且能够正常运行。 2. 安装Java 在所有节点上安装Java,建议使用Oracle JDK 1.8或更高版本。 3. 下载并解压HBase 从官网下载HBase的tar包并解压,将解压后的文件夹放到所有节点的相同位置,建议使用 /opt 目录。 4. 配置HBase 在所有节点上修改HBase配置文件 hbase-site.xml,其中需要配置以下内容: - Hadoop配置路径:hbase.rootdir - ZooKeeper地址:hbase.zookeeper.quorum - RegionServer内存大小:hbase.regionserver.heapsize - Master内存大小:hbase.master.heapsize 5. 启动HBase 在所有节点上启动HBase,可以使用以下命令: ``` $HBASE_HOME/bin/start-hbase.sh ``` 6. 验证HBase是否正常运行 使用HBase Shell进行验证。在任意节点上执行以下命令: ``` $HBASE_HOME/bin/hbase shell ``` 在HBase Shell中输入以下命令: ``` list ``` 如果输出了系统表名,则说明HBase已经成功搭建。 7. 添加RegionServer 如果需要添加新的RegionServer,可以在新节点上安装HBase配置Hadoop和Java,然后将新节点添加到HBase集群中。具体操作步骤如下: - 修改新节点的hbase-site.xml文件。 - 在新节点上启动HBase。 ``` $HBASE_HOME/bin/hbase-daemon.sh start regionserver ``` - 在HBase Master节点上使用以下命令添加新节点: ``` $HBASE_HOME/bin/hbase shell add_regionserver 'new_node:port' ``` 其中new_node是新节点的主机名或IP地址,port是新节点的RegionServer端口号。 至此,HBase完全分布式搭建完成。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值