CentOS 7配置hadoop和hbase伪分布式模式保姆级教程(近乎零基础跟着配也能配对)

前置准备:

VMware17

Tabby:https://github.com/Eugeny/tabby/releases/tag/v1.0.207

jdk-8u401:https://www.java.com/en/download/

hbase-1.3.1:https://archive.apache.org/dist/hbase/1.3.1/

hadoop-2.7.7:https://archive.apache.org/dist/hadoop/common/hadoop-2.7.7/

CentOS-7安装镜像:去找其他链接吧

打包在以下百度网盘链接里了

链接:https://pan.baidu.com/s/1VQGGVFOZ5uSo-9P-9reF9A?pwd=igcd

提取码:igcd

1、安装VMware17和Tabby

这里不再详细展开如何安装

45bd83c638dd4b25b34ada57a06c36ca.png

097a27cc67404b97a59b36441bede613.png

fd6245ceda904903b1c8b6a4e37b48e5.png

2、安装centos7

b2934600bbca4ae2a32a8e17f1068ac1.png

df05ad87ba0e4c49a12eaff55a298f22.png

b869f971a4bf495c99de0aa7132ffdd9.png

d02e7f20e1574d74bba77086d674e1d3.png

顺带一提,装好后关机打个快照可以方便之后克隆装好虚拟机的最纯净状态,不必再次安装虚拟机(能省半个小时它不香吗?)

3、配置静态ip

vim /etc/sysconfig/network-scripts/ifcfg-ens33

ad58ea070be9409fa32e554535d3c4fc.png

按a可以进入编辑模式

0ab2d523e38e40d5900c239e6db76d9e.png

不会看自己网段的看下图

03a8bf8e07184202841534d0e5e93335.png

要改的

BOOTPROTO="static"

要新增的

IPADDR="192.168.88.102"
GATEWAY="192.168.88.2"
NETMASK="255.255.255.0"
DNS="192.168.88.2"

配完后如下图

注意保存是先按esc键进入命令模式再输入:wq回车

f751a7fb2e814e6993e2db079b4db50e.png

重启网络

systemctl restart network

查看下ip

ifconfig

4cc9706ac8f34448b0aeb334d19c03e4.png

打个快照保存下,然后转战tabby

右键左侧当前虚拟机的名称选择快照->拍摄快照

173d439873db4365a88637b7f4641e2a.png

4、Tabby连接虚拟机并上传文件

774602e2a1ff422f9cd7328541a4a245.png

选择ssh连接

b017c5532bfa4aaa86e23d36f9012c7b.png

fe0e14fbb96541ab93eeda4fb0fd43b2.png

d4a287ce93054d9c99a33f320fcea43f.png

2bcf158e5e5540c09009c7230c627ec3.png

Tabby上传文件

b15e93ddcc0148899c167fd63d376e90.png

516ca9b5fbed4b88af7f80200a166bfc.png

查看一下上传的目录

ls /usr/local/

54618123eec4452da5810d57e63422ed.png

5、解压并配置环境变量

先给jdk创建一个新目录

mkdir -p /export/server

解压jdk:

tar -zxvf /usr/local/jdk-8u401-linux-x64.tar.gz -C /export/server/

21a805a53d8049b182cf6d82e8b0f257.png

解压hadoop:

tar -zxvf /usr/local/hadoop-2.7.7.tar.gz -C /usr/local/

解压hbase:

tar -zxvf /usr/local/hbase-1.3.1-bin.tar.gz -C /usr/local/

改名jdk:

mv /export/server/jdk1.8.0_401 /export/server/jdk

改名hadoop:

mv /usr/local/hadoop-2.7.7 /usr/local/hadoop

改名hbase:

mv /usr/local/hbase-1.3.1 /usr/local/hbase

eb1a002435f0421984f8e37bb9c80295.png

进入环境变量文件:

vim /etc/profile

bd306c4ac214405a8c2e5519ba759527.png

export JAVA_HOME=/export/server/jdk
export PATH=$PATH:$JAVA_HOME/bin
export HADOOP_HOME=/usr/local/hadoop
export PATH=.:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
export HBASE_HOME=/usr/local/hbase
export PATH=$PATH:$HBASE_HOME/bin

18fb7a3484584add84f9933eb72455fb.png

应用环境变量:

source /etc/profile

7e5785cdcaf94ed4a72c7d44cec119a3.png

6、一些其他的基础配置

关闭防火墙

关闭本次:

systemctl stop firewalld

关闭开机自启:

systemctl disable firewalld

ac55208e1c174959ad547a9c55694696.png

关闭selinux

临时关闭:

setenforce 0

修改配置文件:

vim /etc/sysconfig/selinux

27ebc541395640e1af8d601cca2bad66.png

SELINUX=disabled

bf8f9f9bc752452b919a99d4ca243812.png

更改主机名(这里的主机名要与后边配置hadoop和hbase时完全一致):

hostnamectl set-hostname node2

1679b67e061e4c389c53f8dbc074af16.png

修改hosts映射文件:

vim /etc/hosts

f80dab2e51144f07a369740672a19ca5.png

在里面添加一行:自己的ip(刚配的)+主机名

c0288547dc4e476397806a1ad82b6799.png

配置ssh免密登录:

ssh-keygen -t rsa

705eab9aab52406ba9780b6fb92a61ff.png

创建密钥文件:

cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys

0204523164364f8e8bc201c24c471243.png

如果查看Java版本时(java -version)显示的不是1.8.0.401可以删除掉本机上自带的其他jdk

查看本机已安装jdk命令:

rpm -qa|grep java

f36394202e524518a48670d13126e103.png

删除命令:rpm -e --nodeps xxxxxx(xxxxxx指代你要删除的软件,示例见下图)

901f772c5de345bf9d6fe92a18d2734f.png

7、配置hadoop

配置hadoop-env.sh:

vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh
export JAVA_HOME=/export/server/jdk

076df609baf949bbb22283cbb6bae4d4.png

配置yarn-env.sh:

vim /usr/local/hadoop/etc/hadoop/yarn-env.sh
export JAVA_HOME=/export/server/jdk

99ff34ac642e40d1aa9949ac447c84c6.png

配置core-site.xml:

vim /usr/local/hadoop/etc/hadoop/core-site.xml
<property>
 <name>fs.defaultFS</name>
 <value>hdfs://192.168.88.102:8020</value>
</property>
<property>
  <name>hadoop.tmp.dir</name>
  <value>/usr/local/hadoop/tmp</value>
</property>

下图ip地址和代码块内对应不上,以代码块为主

配置hdfs-site.xml:

vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml
<property>
 <name>dfs.replication</name>
 <value>1</value>
</property>

a8a9fdd0c6a64388be49c5386a96d30c.png

因为没有mapred-site.xml只有mapred-site.xml.template所以要复制一份

命令:

cp /usr/local/hadoop/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/etc/hadoop/mapred-site.xml

配置mapred-site.xml:

vim /usr/local/hadoop/etc/hadoop/mapred-site.xml
<property>
 <name>mapreduce.framework.name</name>
 <value>yarn</value>
</property>

ce19add639734f089a62536186f455db.png

配置yarn-site.xml:

vim /usr/local/hadoop/etc/hadoop/yarn-site.xml
<property>
 <name>yarn.nodemanager.aux-services</name>
 <value>mapreduce_shuffle</value>
</property>

a4c3e2655d5e4453bb920cffabdee5df.png

格式化hadoop:

hadoop namenode -format

597a40627e814ae9a2af1bd93d991e1e.png

启动hadoop:

start-all.sh

查看是否成功方法1:

jps

309f17abb41b4a908ac656c8c4e98337.png

查看是否成功方法2:浏览器内输入地址http://192.168.88.102:50070/(ip改成自己的,能ping通虚拟机的都可以访问)

46d2de6d7cf94581a8e0b13a828c86f4.png

关闭hadoop命令为:

stop-all.sh

这里不做演示

配好了之后可以再拍个快照以防配错

8、配置hbase伪分布式模式

配置hbase-env.sh:

vim /usr/local/hbase/conf/hbase-env.sh

加上

export JAVA_HOME=/export/server/jdk
export HBASE_MANAGES_ZK=true

e3c3064af9034ccfbf07d3daafd2049b.png

配置hbase-site.xml:

vim /usr/local/hbase/conf/hbase-site.xml

注意一定要应该修改的一定要修改

<property>
 <name>hbase.rootdir</name>
 <value>hdfs://node2:8020/hbase</value>
</property>
<property>
 <name>hbase.zookeeper.quorum</name>
 <value>node2</value>
<!--改成自己的主机名,这是血的教训-->
</property>

<property>
 <name>dfs.replication</name>
 <value>1</value>
</property>

<property>
 <name>hbase.cluster.distributed</name>
 <value>true</value>
</property>

<property>
 <name>hbase.zookeeper.property.dataDir</name>
 <value>/usr/local/hbase/data/zookeeper</value>
</property>

aa3d6ce20ee545b787e4de55b0bcc246.png

开启(开启前需要开启hadoop):

start-hbase.sh

查看是否成功方法1:

jps

067245ec19c94975bc95b9d9f7b1e9e6.png

查看是否成功方法2:浏览器内输入地址http://192.168.88.102:16010/(ip改成自己的,能ping通虚拟机的都可以访问)

6c8f9aa08b3742e29f3341a8aaf4894c.png

关闭时注意先关hbase再关hadoop。

关闭hbase:

stop-hbase.sh

配好后别忘了拍个快照备份一下

9、解决某些服务启动不起来的问题(持续更新)

9.1无namenode

一种可能的原因是格式化化多次但没有删除以前格式化时的文件,导致唯一识别标识集群id变化了。所以启动不起来namenode 

解决方法:删除以前格式化的文件重新格式化

删除临时文件:

rm -rf /tmp/hadoop*

删除在core-site.xml中配置的格式化文件地址的文件夹:

rm -rf /usr/local/hadoop/tmp

每个人配置的地址不同请查看自己的core-site.xml文件

  • 38
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 12
    评论
1. 首先安装Java环境,Hadoop需要Java环境支持,可以使用yum命令安装: ``` yum install java-1.8.0-openjdk-devel.x86_64 ``` 2. 下载Hadoop安装包,可以从官网下载最新版本: ``` wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.3.0/hadoop-3.3.0.tar.gz ``` 3. 解压Hadoop安装包: ``` tar -zxvf hadoop-3.3.0.tar.gz ``` 4. 配置Hadoop环境变量,在/etc/profile文件中添加以下内容: ``` export HADOOP_HOME=/usr/local/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` 然后执行以下命令使环境变量生效: ``` source /etc/profile ``` 5. 配置Hadoop分布式模式,修改以下配置文件: - /usr/local/hadoop/etc/hadoop/hadoop-env.sh ``` export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.292.b10-0.el7_9.x86_64 ``` - /usr/local/hadoop/etc/hadoop/core-site.xml ``` <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` - /usr/local/hadoop/etc/hadoop/hdfs-site.xml ``` <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/usr/local/hadoop/hadoop_data/hdfs/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/usr/local/hadoop/hadoop_data/hdfs/datanode</value> </property> </configuration> ``` - /usr/local/hadoop/etc/hadoop/mapred-site.xml ``` <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> ``` - /usr/local/hadoop/etc/hadoop/yarn-site.xml ``` <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.hostname</name> <value>localhost</value> </property> <property> <name>yarn.nodemanager.resource.memory-mb</name> <value>1024</value> </property> <property> <name>yarn.nodemanager.resource.cpu-vcores</name> <value>1</value> </property> </configuration> ``` 6. 格式化Hadoop文件系统,执行以下命令: ``` hdfs namenode -format ``` 7. 启动Hadoop服务,执行以下命令: ``` start-all.sh ``` 8. 查看Hadoop服务状态,执行以下命令: ``` jps ``` 如果输出以下内容,则表示Hadoop服务已经启动成功: ``` 12345 NameNode 23456 DataNode 34567 ResourceManager 45678 NodeManager 56789 Jps ``` 9. 访问Hadoop Web界面,打开浏览器,输入以下地址: ``` http://localhost:9870/ ``` 如果能够正常访问,则表示Hadoop分布式安装成功。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 12
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值