Hadoop安装笔记(二)

**前置条件:

  1. VMWare安装成功
  2. 三台Centos安装成功**

继续:
第一步:修改系统名字,及三个系统的ip和名字的映射。
Vim /etc/hostname 修改主机名
Vim /etc/hosts 修改名字和ip映射
目标效果:三个系统能互相ping通,ping ly1
第二步:SSH实现三台机子免密码登录。
4. 在主机master上ssh-keygen –t rsa –P ‘’ –f ~/.ssh/id_dsa 创造公钥私钥
5. cd ~/.ssh
6. cat id_dsa.pub >> ~/.ssh/authorized_keys
7. cd
8. ssh 主机名
上述实现本机免密码登录
9. 在slave1和slave2分别执行产生公钥私钥的命令ssh-keygen –t rsa –P ‘’ –f ~/.ssh/id_dsa
10. 在slave1和slave2分别执行ssh-copy-id master, 将各自公钥添加到host01的authorized_keys的文件中.
11. 在master上执行
scp /root/.ssh/authorized_keys host02:/root/.ssh/
scp /root/.ssh/authorized_keys host03:/root/.ssh/
最终效果,三台机器可以免密互相登录 ,命令是ssh 主机名

踩坑如下:

1. ERROR: but there is no HDFS_NAMENODE_USER defined. Aborting operation. Starting datanodes

解决方式:

vim hadoop-env.sh

export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root

2. 启动hadoop,报错Error JAVA_HOME is not set and could not be found

解决方式:

vim hadoop-env.sh

export JAVA_HOME=/opt/module/java/jdk1.8.0_291

3. hdfs网页端界面查看不了

vi hdfs-site.xml,增加这一段配置

<property>
            <name>dfs.namenode.secondary.https-address</name>
            <value>node2:50091</value>
</property>

在sbin文件夹下./stop-dfs.sh,./start-dfs.sh
成功
参考网址:https://zhuanlan.zhihu.com/p/32561305

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值