大数据hadoop平台搭建之hdfs

目录


  • 下载解压hadoop安装包
  • 修改配置文件
  • 格式化namenode
  • 启动hdfs
  • 查看是否启动成功

下载解压hadoop安装包

  1. 登录hadoop官网下载:Hadoop官网(http://hadoop.apache.org)
  2. 将下载下来的安装包上传到linux虚拟机(服务器),用tar -zxvf 命令解压安装

修改配置文件

修改配置文件 core-site.xml,hdfs-site.xml,slaves,hadoop-env.sh。hadoop-env.sh配置的是JAVA_HOME,core-site.xml配置的是fs.defaultFS(hdfs访问地址)和hadoop.tem.dir(namenode和datanode工作时存放相关数据的目录)。hdfs-site.xml设置的dfs.namenode.secondary.http-address(secondaryNamenode的搭载节点地址),slaves设置的是dataNode的节点名称。
在这里插入图片描述
在这里插入图片描述

格式化nameNode

格式化命令:hadoop nameNode -format
格式化原因:生成tmp目录,本质是tmp/dfs/name/current目录下的以下四个文件(
-rw-r–r--. 1 root root 321 1月 1 16:40 fsimage_0000000000000000000(镜像文件)
-rw-r–r--. 1 root root 62 1月 1 16:40 fsimage_0000000000000000000.md5(校验文件,检查镜像文件是否被修改)
-rw-r–r--. 1 root root 2 1月 1 16:40 seen_txid
-rw-r–r--. 1 root root 207 1月 1 16:40 VERSION(包含集群id等信息)
)

启动hdfs

  1. 手动一个个启动–> hadoop-demon.sh start nameNode 和hadoop-demon.sh start detaNode
  2. 脚本启动–>start-dfs.sh(前提将sbin路径追加到环境变量里)

查看结果

jps命令,如果主节点出现 NameNode和ScondaryNameNode,从节点出现dataNode

问题分析

如果只有nameNode启动,dataNode没有启动–>解决方法:关闭集群,删除各个节点tmp文件下的所有内容,再格式化namenode,然后重新启动。

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

马明智

你的鼓励就是我最大的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值