分布式集群环境之域名映射与免密码登录

0x00 教程内容

  1. 当前集群说明及目标
  2. 集群域名映射配置
  3. 集群免密码登录配置

0x01 当前集群说明及目标

1. 当前分布式集群说明

a. 目前已经克隆好了三台主机,除了hostname与ip,其他均一致
b. 全部均已经新建好hadoop-sny用户,密码是shaonaiyi
c. 全部俊已经配置好了NAT网络环境,ip分别为:

主机master的ip:192.168.128.131
主机slave1的ip:192.168.128.132
主机slave2的ip:192.168.128.133 

d. 每台主机(主机又称为服务器)可以互相ping通,可以上外网

2. 当前集群目标说明

a. 配置好三台服务器的域名映射
意义:可以用用户名代替长长的ip地址,有利于操作和以后集群的迁移、运维等等
b. 配置好三台服务器可以免密码登录到对方
意义:以后的大数据环境需要用到,不然无法操作

0x02 集群域名映射配置

1. 域名映射

a. 编辑文件hosts并添加映射内容(三台服务器均需要操作
sudo vi /etc/hosts

192.168.128.131 master
192.168.128.132 slave1
192.168.128.133 slave2

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
b. 查看一遍是否添加成功(三台服务器均可以操作一下
cat /etc/hosts
在这里插入图片描述

2. 校验域名映射

a. 每台机器都跑一下下面三个指令,即用用户名代替了ip地址,一般不会出问题的)
ping master
ping slave1
ping slave2
在这里插入图片描述

0x03 集群免密码登录配置

1. 生成三台服务器的秘钥

a. 生成服务器密钥(输入指令后,连按三次回车
ssh-keygen
PS:三台机器均需要操作,注意本教程是用hadoop-sny用户操作
在这里插入图片描述

2. 配置公钥到authorized_keys文件

a. master上执行(将公钥id_rsa.pub写入到authorized_keys文件)

说明:生成的秘钥默认是在~/.ssh目录下,该目录下有公钥与私钥,我们将公钥写到authorized_keys中,相当于一个钥匙袋的功能,等一下要聚合slave1、slave2的钥匙到此处。

cd ~/.ssh
cat id_rsa.pub >> authorized_keys
在这里插入图片描述
b. slave1上执行(将公钥id_rsa.pub写入到authorized_keys1文件)
cd ~/.ssh
cat id_rsa.pub >> authorized_keys1

c. 将slave1的authorized_keys1文件拷贝到master节点的~/.ssh目录(如没有scp指令,master、slave1、slave2均执行yum install -y openssh-clients安装)
scp authorized_keys1 hadoop-sny@master:~/.ssh/
PS:第一次用scp指令需要输入密码,输入yes,然后输入master的hadoop-sny用户的密码:shaonaiyi即可显示拷贝成功!输入错就再输入一遍哈哈哈~
在这里插入图片描述
d. slave2上执行(将公钥id_rsa.pub写入到authorized_keys2文件)
cd ~/.ssh
cat id_rsa.pub >> authorized_keys2

e. 将slave2的authorized_keys2文件拷贝到master节点的~/.ssh目录
scp authorized_keys2 hadoop-sny@master:~/.ssh/

3. 聚合三台服务器的公钥到authorized_keys文件

a. 此时回到master查看,发现~/.ssh目录已经有三台服务器的公钥了,但是还没有聚合
在这里插入图片描述
b. 聚合公钥(其实就是把slave1、slave2的放到钥匙袋,目前master的已经在了)
cat authorized_keys1 >> authorized_keys
cat authorized_keys2 >> authorized_keys
c. 查看authorized_keys文件,发现有三台服务器的公钥了
cat authorized_keys
在这里插入图片描述

4. 分发钥匙袋到slave1、slave2服务器

a. 钥匙袋即authorized_keys文件
scp authorized_keys hadoop-sny@slave1:~/.ssh/
scp authorized_keys hadoop-sny@slave2:~/.ssh/

5. 校验免密码登录

a. 三台服务器均执行下面几句话:
ssh master
exit
ssh slave1
exit
ssh slave2
exit
在这里插入图片描述
PS:如果不用输入密码也能登录进彼此就说明成功了!
b. 注意:
一定要在测试完后要用exit退出回到之前的账号,不然可能会自己忘记了,没退出,导致之后操作的内容是在别的服务器操作的。
c. 提示:
一定要三台机器都测试,而且是这样的格式:ssh 用户名,不然后面用Hadoop等的使用过程中会出现要输入密码的情况。

0xFF 总结

  1. 为了方便,可以自己写一个校验校验的脚本,脚本可以参考教程:D002 复制粘贴玩大数据之便捷配置0x03 编写查看各节点进程脚本 1. jps_all.sh脚本
  2. 域名映射与免密码登录,是学习大数据的基础。
    a. 如果觉得大数据环境太复杂,可以参考本专栏:复制粘贴玩转大数据系列专栏,学习用Docker搭建大数据环境。
    b. 如果基础好的话,可以直接学习此篇文章:
    D012 复制粘贴玩大数据之Dockerfile安装Kafka集群
    半个小时搭建好已经装好了hadoop、spark、zookeeper、hbase、hive、flume、kafka等的大数据环境!

作者简介:邵奈一
大学大数据讲师、大学市场洞察者、专栏编辑
公众号、微博、CSDN邵奈一

复制粘贴玩转大数据系列专栏已经更新完成,请跳转学习!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值