进阶-第101_es生产集群备份恢复之部署hadoop hdfs分布式文件存储系统

 

hadoop当前大数据领域的事实上的一个标准

 

hadoop hdfs,提供的是分布式的文件存储,数据存储

hadoop yarn,提供的是分布式的资源调度

hadoop mapreduce,提供的是分布式的计算引擎,跑在yarn上面的,由yarn去做资源调度

hadoop hive,提供的是分布式的数据仓库引擎,基于mapreduce

hadoop hbase,提供的是分布式的NoSQL数据库,基于hdfs去做的

 

1、使用课程提供的hadoop-2.7.1.tar.gz,使用WinSCP上传到CentOS的/usr/local目录下。

2、将hadoop包进行解压缩:tar -zxvf hadoop-2.7.1.tar.gz

3、对hadoop目录进行重命名:mv hadoop-2.7.1 hadoop

4、配置hadoop相关环境变量

vi .bashrc

export HADOOP_HOME=/usr/local/hadoop

export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin

source .bashrc

5、在/usr/local目录下创建data目录

 

6、修改配置文件

 

core-site.xml

 

<property>

  <name>fs.defaultFS</name>

  <value>hdfs://elasticsearch01:9000</value>

</property>

 

hdfs-site.xml

 

<property>

  <name>dfs.namenode.name.dir</name>

  <value>/usr/local/data/namenode</value>

</property>

<property>

  <name>dfs.datanode.data.dir</name>

  <value>/usr/local/data/datanode</value>

</property>

 

yarn-site.xml

 

<property>

  <name>yarn.resourcemanager.hostname</name>

  <value>elasticsearch01</value>

</property>

 

mapred-site.xml

 

<property>

  <name>mapreduce.framework.name</name>

  <value>yarn</value>

</property>

 

slaves

 

elasticsearch01

elasticsearch02

elasticsearch03

 

在另外两台机器上部署

 

1、使用scp命令将elasticsearch01上面的hadoop安装包和.bashrc配置文件都拷贝过去。

2、要记得对.bashrc文件进行source,以让它生效。

3、记得在另外两台机器的/usr/local目录下创建data目录。

 

启动hdfs集群

 

su elasticsearch

chown -R elasticsearch /usr/local/hadoop

chown -R elasticsearch /usr/local/data

 

1、格式化namenode:在elasticsearch01上执行以下命令hdfs namenode -format

2、启动hdfs集群:start-dfs.sh

3、验证启动是否成功:jps、50070端口

elasticsearch01:namenode、datanode、secondarynamenode

elasticsearch02:datanode

elasticsearch03:datanode

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
搭建一套Hadoop HDFS分布式文件系统涉及以下步骤: 1. 安装Java:Hadoop是用Java编写的,因此首先需要在所有节点上安装Java运行环境。 2. 下载Hadoop:从Apache Hadoop官网(https://hadoop.apache.org/)下载所需版本的Hadoop软件包。 3. 配置Hadoop集群:编辑Hadoop配置文件,包括core-site.xml、hdfs-site.xml和mapred-site.xml。这些文件定义了Hadoop集群的各种参数,如文件系统的URI、数据存储路径、副本数量、作业调度器等。 4. 配置SSH免密码登录:为了方便管理和操作Hadoop集群,需要配置节点间的SSH免密码登录。这可以通过生成SSH密钥对,并将公钥分发到所有节点上来实现。 5. 配置主节点(NameNode):选择一个节点作为主节点,配置core-site.xml和hdfs-site.xml文件,指定NameNode的地址、数据存储路径等信息。 6. 配置从节点(DataNode):在所有从节点上配置core-site.xml和hdfs-site.xml文件,指定DataNode的地址、数据存储路径等信息。 7. 格式化文件系统:在主节点上执行`hdfs namenode -format`命令,初始化文件系统的元数据。 8. 启动Hadoop集群:在主节点上执行`start-all.sh`脚本或分别启动各个组件的命令,启动Hadoop集群。 9. 验证HDFS:使用Hadoop提供的命令行工具,如`hadoop fs -ls /`来验证HDFS是否正常工作。可以上传、下载和删除文件来测试文件系统的功能。 以上是搭建Hadoop HDFS分布式文件系统的基本步骤。在实际部署过程中,还需要注意网络配置、防火墙设置、节点管理等方面的细节。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值