CentOS7配置Hadoop-3.1.3存在的问题及总结

本文介绍了在CentOS7上配置Hadoop-3.1.3过程中遇到的问题,包括SSH未配置导致节点无法启动、权限问题影响logs文件夹创建、Hadoop文件配置错误及namenode格式化问题。解决方法涉及SSH配置、修改权限、正确配置Hadoop相关文件以及理解namenode格式化的注意事项。在启动前需切换至指定用户,并通过检查进程确保一切正常。
摘要由CSDN通过智能技术生成

问题一:没有配置SSH导致部分节点不能启动

没有配置SSH导致secondarynamenode节点,datanode节点无法启动
解决方法:

  1. 查看主机名
    hostnamectl
    在这里插入图片描述

2.进行ssh配置

ssh localhostname  #这里的localhostname指的是自己的主机名
exit                           # 退出之前的 ssh localhost
cd ~/.ssh/                     # 若没有该目录,请先执行一次ssh localhost
ssh-keygen -t rsa              # 会有提示,一直按回车即可
cat ./id_rsa.pub >> ./authorized_keys  # 加入授权
chmod 600 authorized_keys      # 更改文件权限

问题二 因权限问题无法创建logs文件夹

在初始化时报错因权限问题无法创建logs文件夹
解决方法:

sudo chown -R  localhostname /opt/module/hadoop-3.1.3/
#这里的localhostname是主机名

有了logs文件夹,改bug速度得到加快

问题三 Hadoop文件配置出问题

主要配置三个文件
1、配置core-site.xml

<configuration
在虚拟机中删除Hadoop 3.1.3版本通常涉及以下几个步骤: 1. **关闭并停止Hadoop服务**:首先,确保Hadoop服务已完全停止。通过命令行进入Hadoop安装目录(例如`/usr/lib/hadoop`),找到Hadoop的服务启动脚本,如`hadoop-daemon.sh`,然后分别停止HDFS(如果运行了)和YARN(或其他服务)。 ```sh # 示例,假设Hadoop安装在默认位置 sudo stop hadoop-hdfs namenode sudo stop yarn-resourcemanager ``` 2. **卸载Hadoop组件**:在Hadoop的conf目录下找到`hadoop-env.sh`文件,找到HADOOP_HOME路径,并将其指向其他地方或删除该环境变量。接着,可以使用包管理器(如apt-get、yum等)来卸载Hadoop包。 ```sh # 对于基于Debian的系统(如Ubuntu) sudo apt-get remove hadoop* # 对于基于RPM的系统(如CentOS/RHEL) sudo yum remove hadoop* ``` 3. **清理配置和日志文件**:移除Hadoop配置目录,例如`/etc/hadoop` 和 `~/.hadoop` (如果有)。同时,检查log目录(通常是`/var/log/hadoop` 或者自定义的日志路径),删除相关的日志文件。 4. **清理存储空间**:如果HDFS被用于数据存储,需要从HDFS删除所有相关的数据和元数据。在HDFS客户端上运行`rm -rf /` 清空根目录,然后在NameNode上确认清空。 5. **验证是否删除成功**:最后,你可以通过更新软件包列表、查询软件包信息等方式确认Hadoop已经彻底删除。 **注意**:上述操作应在虚拟机的管理系统(如VMware或VirtualBox)中进行,避免影响到物理主机的数据和配置
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值