hadoop操作配置格式化等

1 用ant jar命令重新编译了hadoop源码之后会生成build文件夹,hadoop重新启动的时候主节点namenode进程会根据build中的版本启动
导致从节点的datanode进程与主节点的版本不一致
2 必须关闭了hadoop集群再格式化主节点,否则会报错,dfs-name已经被锁定,无法再次锁定
3 格式化的时候,如果secondary与namenode在一台机器上,要备份一下secondary的数据,否则会被一起格式化没了
4 hadoop.tmp.dir可以看做是一个父亲目录,其他的很多目录默认会存放在此目录下
比如fs.checkpoint.dir(镜像存储目录,默认在{hadoop.tmp.dir}/dfs/namesecondary),以及dfs.name.dir,dfs.data.dir
5 centos上当前目录的数据发生变化的时候,文件清除了再重新写到该目录的时候,不会立马显示出来,需要回退到其它目录再进来,才能够看到
新进来的文件,但是删除之后会立马显示出来。
6 namenode和secondary分离的话,要修改hdfs-site.xml
增加:
dfs.http.address  namenodeIP:50070
dfs.secondary.http.address secondnamenodeIP:50090
7将hadoop指定目录下所有内容保存为一个文件,同时down至本地
hadoop dfs –getmerge 源文件目录  本地目录
8 将正在运行的hadoop作业kill掉
hadoop job –kill  [job-id]
Hadoop集群重新格式化是指对Hadoop分布式文件系统(HDFS)进行重新格式化,以清除现有的数据和元数据,并使其恢复到初始状态。重新格式化Hadoop集群通常是在以下情况下进行: 1. 集群新建或重建:当使用新的硬件或重新安装操作系统时,需要重新格式化Hadoop集群。这样可以确保集群中的所有节点都处于相同的状态,并准备好将来存储和处理数据。 2. 故障恢复:当集群发生故障,导致数据无法访问或元数据损坏时,可以通过重新格式化集群来恢复数据的可用性。这样可以清除任何损坏的数据块或元数据,以便后续的数据复制和恢复操作。 3. 节点扩展:当需要扩展现有Hadoop集群的容量或性能时,可以通过向集群中添加新节点并重新格式化它们来实现。这样可以确保新节点被正确地集成到现有集群中,并且具有正确的配置和数据副本。 在重新格式化Hadoop集群之前,需要先停止Hadoop服务,以便确保不会有任何写操作重新格式化过程中发生。然后,可以使用以下命令重新格式化Hadoop集群: hdfs namenode -format 此命令将删除HDFS中的所有数据和元数据,并生成一个新的namespaceID。重新格式化完成后,可以启动Hadoop服务,并开始使用集群存储和处理数据。 重新格式化Hadoop集群是一个非常谨慎的操作,因为它会删除所有的数据和元数据。因此,在执行此操作之前,必须先备份重要的数据,并确保所有相关的配置文件和参数都正确设置。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值