Ubuntu16.4-Hadoop2.7.5分布式集群搭建(三)--- Hbase的安装与配置

一:Hadoop的安装与配置

若没有提前安装好hadoop,请移步:

Ubuntu16.4-Hadoop2.7.5分布式集群搭建(一)

二:Zookeeper的安装与配置

以下操作如若不作声明则全部在master主节点上操作,并使用hdfs用户登录。

1. 下载

下载地址:https://mirrors.aliyun.com/apache/zookeeper

这里我用到的zookeeper版本是"zookeeper-3.4.10"

2. 安装

将下载好的文件解压到"/usr/local/hadoop"目录下。

3. 配置

(1). 进入zookeeper的"conf"目录下, 在终端上输入"cp zoo_sample.cfg zoo.cfg"

(2). 在终端输入命令"vim zoo.cfg", 对配置文件作以下修改:

在文件最后添加以下内容:
server.1=master:2888:3888
server.2=node1:2888:3888
server.3=node2:2888:3888
dataLogDir=/usr/local/hadoop/zookeeper-3.4.10/logs

修改文件中的dataDir:
dataDir=/usr/local/hadoop/zookeeper-3.4.10/dataDir

(3). 在终端执行以下命令: 

mkdir -p /usr/local/hadoop/zookeeper-3.4.10/dataDir
mkdir -p /usr/local/hadoop/zookeeper-3.4.10/logs

(4). 使用以下命令新建myid文件。

vim /usr/local/hadoop/zookeeper-3.4.10/dataDir/myid

(5). 将zookeeper发送到其他节点:

scp -r zookeeper-3.4.10/ hdfs@node1:/usr/local/hadoop/
scp -r zookeeper-3.4.10/ hdfs@node2:/usr/local/hadoop/

(6). 修改myid文件内容,在master节点中修改内容为 1 ,在node1中为 2,在node2中为 3

4. 配置zookeeper环境变量

三台主机都需进行这一步

使用hdfs用户,在终端输入"vim ~/.bashrc",修改内容如下:


修改完保存退出,在终端输入"source ~/.bashrc"

5. 启动zookeeper服务

使用hdfs用户,分别在三台主机上输入"zkService.sh start",三台主机启动完后,分别在终端输入"zkService.sh status"检查启动状态,出现以下信息则启动成功。



三:Hbase的安装与配置

以下操作如若不作声明则全部在master主节点上操作,并使用hdfs用户登录。

1.下载

下载地址:https://mirrors.aliyun.com/apache/hbase/

这里我用到的hbase版本是"hbase-1.2.6"。

2. 安装

将下载好的文件解压到" /usr/local/hadoop"目录下。

3. 配置

(1). 在终端输入以下命令,新建目录。

mkdir -p /var/local/hadoop/hbase-1.2.6/dataDir
mkdir -p /var/local/hadoop/hbase-1.2.6/logs

(2). 在终端输入"vim /usr/local/hadoop/hbase-1.2.6/conf/hbase-env.sh",在文件中添加以下内容:

export HBASE_MANAGES_ZK=false
export HBASE_LOG_DIR=/usr/local/hadoop/hbase-1.2.6/logs
export JAVA_HOME=/usr/local/jdk1.8.0
export HADOOP_HOME=/usr/local/hadoop/hadoop-2.7.5
export HBASE_HOME=/usr/local/hadoop/hbase-1.2.6
export HBASE_CLASSPATH=/usr/local/hadoop/hadoop-2.7.5/etc/hadoop

(3). 在终端输入"vim /usr/local/hadoop/hbase-1.2.6/conf/regionservers",删除文件内容并添加以下内容:

node1
node2

(4). 在终端输入"vim /usr/local/hadoop/hbase-1.2.6/conf/hbase-site.xml",在"configuration"标签中添加以下内容:

<property>
    <name>hbase.rootdir</name>
    <value>hdfs://master:9000/hbase</value>
</property>

<property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
</property>

<property>
    <name>hbase.zookeeper.property.clientPort</name>
    <value>2181</value>
</property>

<property>
    <name>hbase.zookeeper.quorum</name>
    <value>master,node1,node2</value>
</property>

<property>
    <name>hbase.zookeeper.property.dataDir</name>
    <value>/usr/local/hadoop/zookeeper-3.4.10/dataDir</value>
</property>

<!-- HMaster.... -->
<property>
    <name>hbase.master.info.bindAddress</name>
    <value>master</value>
    <description>HBase Master Web UI0.0.0.0</description>
</property>

<property>
    <name>hbase.master.info.port</name>
    <value>16010</value>
    <description>HBase Master Web UIWeb UI</description>
</property>
<!-- HRegionServer.... -->
<property>
    <name>hbase.regionserver.port</name><value>16020</value>
    <description>The port the HBase RegionServer binds to.</description>
</property>

<property>
    <name>hbase.regionserver.info.port</name>
    <value>16030</value>
    <description>The port for the HBase RegionServer web UI</description>
</property>

<property>
    <name>hbase.regionserver.info.bindAddress</name>
    <!--下面这项需要在node1节点和node2节点上改为node1和node2 -->
    <value>master</value>
    <description>The address for the HBase RegionServer web UI</description>
</property>

4. 将hbase发送到其他节点

(1). 在终端输入以下命令,将hbase发送到其他节点:

scp -r /var/local/hadoop/hbase-1.1.7/ hdfs@node1:/var/local/hadoop 
scp -r /var/local/hadoop/hbase-1.1.7/ hdfs@node2:/var/local/hadoop

(2). 在node1,node2节点中修改hbase配置文件"hbase-site.xml"中的最后一个"property"标签。

5. 配置各个节点hbase的环境变量

在终端输入"vim ~/.bashrc",修改内容如下:


6. 运行hbase服务

在master节点,使用hdfs用户,在终端输入"start-hbase", 然后在各个节点输入jps查看进程,可以在master节点上看到HMaster进程,在两个子节点上看到HRegionServer进程。

然后在终端输入"hbase shell",启动后输入"status",若出现以下内容则配置成功:


Note: 若报"Master is initializing"这样的错,可以先用用ntp同步节点时间。


email: 17126252@bjtu.edu.cn


版权声明:博客编写不易,转载请标明出处,万分感谢!

http://blog.csdn.net/zyy_2018/article/details/79604673









  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在进行Hadoop开发前,需要先配置Hadoop的开发环境,包括安装Hadoop和搭建伪分布式集群。以下是Hadoop安装和伪分布式集群搭建的步骤: 1. 下载HadoopHadoop官网下载最新版本的Hadoop压缩包。当前最新版本是3.3.1。 2. 解压缩Hadoop 将下载的Hadoop压缩包解压缩到本地目录,比如/opt/hadoop。解压缩后,会得到一个hadoop-3.3.1目录。 3. 配置Hadoop环境变量 在~/.bashrc文件中添加以下内容: export HADOOP_HOME=/opt/hadoop/hadoop-3.3.1 export PATH=$PATH:$HADOOP_HOME/bin 然后执行source ~/.bashrc,使配置生效。 4. 配置Hadoop 进入Hadoop的安装目录,修改配置文件。以下是必须修改的配置文件: - core-site.xml 在Hadoop安装目录的/etc/hadoop/目录下,创建core-site.xml文件,并添加以下内容: <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> 这个配置指定了Hadoop的默认文件系统为HDFS,并且HDFS的访问地址为localhost:9000。 - hdfs-site.xml 在Hadoop安装目录的/etc/hadoop/目录下,创建hdfs-site.xml文件,并添加以下内容: <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> 这个配置指定了HDFS的副本数为1。 - mapred-site.xml 在Hadoop安装目录的/etc/hadoop/目录下,创建mapred-site.xml文件,并添加以下内容: <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> 这个配置指定了MapReduce的框架为YARN。 - yarn-site.xml 在Hadoop安装目录的/etc/hadoop/目录下,创建yarn-site.xml文件,并添加以下内容: <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> </configuration> 这个配置指定了NodeManager的辅助服务为mapreduce_shuffle,并且指定了ShuffleHandler类。 5. 格式化HDFS 在Hadoop安装目录下,执行以下命令: $ hdfs namenode -format 这个命令会格式化HDFS,清空HDFS中的所有文件。 6. 启动HadoopHadoop安装目录下,执行以下命令: $ start-all.sh 这个命令会启动Hadoop的所有组件,包括NameNode、DataNode、ResourceManager、NodeManager等。 7. 验证Hadoop是否正常工作 在浏览器中访问http://localhost:8088/,可以看到YARN的Web界面。在浏览器中访问http://localhost:50070/,可以看到HDFS的Web界面。 至此,Hadoop的安装和伪分布式集群搭建完成。可以开始进行Hadoop的开发了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值