实现三个容器无密码访问,且搭建hadoop

本文详细描述了如何在三个Docker容器中实现无密码访问,并配置Hadoop环境,包括SSH设置、密钥对生成、HDFS、MapReduce和YARN配置,以解决通过VMware直接解压文件的问题。
摘要由CSDN通过智能技术生成

实现三个容器无密码访问,且搭建hadoop

首先创建一个通信

Docker network sparknetwork

第一步:创建第一个容器

第二步:进入容器设置vim/etc/ssh/sshd_config 增加一行PermitRootLogin yes

第三步:设置密码

启动ssh服务

第四步:再创建一个容器 操作如上所示同样,不进行赘述

第五步:创建第三个容器

第六步:下载查询ip的工具

第七步:查看ip

第八步:通过ssh访问 三个均可同样操作访问

第九步:生成密钥(3个操作均一样)

第十步:将公钥复制过来到authorized_keys文件中

查看内容

第十一步:将合并公钥复制到其他两个容器

第十二步:免密登录成功

第十三步:为了使用名字登录配置hosts (vim etc/hosts) 使用ifconfig查IP

第十四步:验证上面使用名字进入

第十五步: 可以把hadoop和jdk conda等压缩包拖入centos 然后移动到前面关联的opt文件中

这一步拖去解压可能出问题,所以使用xftp传输更稳妥

第十六步 解压jdk和hadoop到创建的文件夹hadooptar

第十七步: 为了方便进行后续的使用 我们将hadoop jdk名字简化

第十八步 hadoop-env.sh添加JDK安装位置

第十九步:在core-site.xml配置NameNode的运行主机和运行生成数据临时目录。

第二个框需要换成自己的路径

第二十步:修改hdfs-site.xml文件

设置HDFS数据块的副本数量以及second namenode的地址

第二十一步:修改mapred-site.xml文件

设置MapReduce的运行时框架

第二十二步:修改yarn-site.xml文件

设置yarn集群的管理者

第二十三步 修改workers文件

第二十三步:配每个容器里的置etc/profile 里的java hadoop的

export JAVA_HOME=/opt/hadooptar/jdk

export PATH=$PATH:$JAVA_HOME/bin

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

————————————————

export HADOOP_HOME=/root/hadooptar/hadoop

export PATH=:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

————————————————

export JAVA_HOME=/opt/hadooptar/jdk

export PATH=$PATH:$JAVA_HOME/bin

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

————————————————

第二十四步:source /etc/profile一下 验证是否jdk 和hadoop 配好了

第二十五步: 格式化HDFS

hdfs namenode -forma

然后运行start-all.sh 运行

使用jps查看

第二十六步:

进入192.168.81.131:9870 注意前面是虚拟机的IP地址

第二十七步:

进入192.168.81.131:8088 同样上面

遇到的问题:

问题一:讲压缩包直接拖入VMware中,然后进行解压。将会出现解压归档错误问题

我们通过下载xftp来进行传输文件解决了这个问题。

  • 23
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值