集群环境ssh免密码登录设置

集群环境ssh免密码登录设置

今天刚刚学习,总结一下 以免以后忘记
参考https://www.cnblogs.com/ivan0626/p/4144277.html
https://www.cnblogs.com/ivan0626/p/4144277.html
集群环境ssh免密码登录设置
一、准备工作

  1. 用客户端工具(ssh client或者putty)连接到linux服务器。在root用户下输入命令
    vi /etc/hosts,用vi编辑hosts文件,如下:
    #127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
    #::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
    192.168.253.128 hadoop1
    192.168.253.129 hadoop2
    192.168.253.130 hadoop3

1 2 3 都要配
二、在每台机上产生新的rsa公钥私钥文件,并统一拷贝到一个authorized_keys文件中

  1. 登录hadoop1,在.ssh目录下输入命令:
    ssh-keygen -t rsa

2)登录hadoop1,输入命令:
cat id_rsa.pub > authorized_keys
vi authorized_keys 打开
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEA5T0HO+zPxb8Y7fN5H7wE4DCQF2gfPF+BiDQq1/OThZaRnwGL10/Q81pmzhkDc57i42HBKgQZcMn68Xto5R1yoZ0izZp9p89Q6e0jQaMYuqeYbDekmC4YG+74hu/GCK2Kyc4WyyDuyzv4dyqcR82gRSdy3TBEZs01oi4w4NV4Z4GtdHg6mdgewBUMBxuAvPYW6jXjqJI6Cvhy7UE1I6liMiDdEfipZQbBbl1UR0qnv9hiOfsobyGDQHB9ZVBF4pgKRCzxsY8KHGmrVUbrYmkNIGRDd4h3X2aT/CAHcWXO1Zt0AJZBb1vbK3I4LZYshxPMzr4L/yVj1e1SeSfkEKIVww== root@hadoop1

登录其他主机,将其他主机的公钥文件内容都拷贝到hadoop1主机上的authorized_keys文件中,
[root@hadoop1 .ssh]# cat authorized_keys
hadoop2
cat authorized_keys
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAxeglbXtnB+PgFE0JS2dZ22LULDFus9G02dEGRUHFOU+kGijNjL5ZS1flU9f1jKr/Q0goZJ8dVqEslt/OmeD6POaRnq7ru7y+8x/9JkVviWeSX8sa8vKBIUQVW32djChACSFqCvBzlBgLs7XUJqzaVWshB7DJuOWBDhyxA0vnSpo2Bqg7ngVGaIlvjygKew2DPv2Basenez7hQ2BUQVjKoTaw14N0YmWF3kHO+xygCpT5X4Qkkx8Ww3j6zTYAfVv5VSHYyJX8FcfoYqias2/IKiI7SnT7zO0iEA4tFtrzp0gkmmYZWtaFxWrF7C23ebmRiRTziNWQ4FFk9Z93upit8Q== root@hadoop2

[root@hadoop1 .ssh]# cat authorized_keys
hadoop3
cat authorized_keys
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEA2Wka9xNTOAtVwgZRxO3N3tvlxF1UVF9FwdeOTQJgSESuioqtvct651ew1y0PQcF0DXTiApe0BScH1TkJZeDKLK77gic4gL8jRLOX4D9STj05XueIhS2KpzavzIXAs8SuzmbVz2dCzUW2CPCg90I921vC/UBgrr4pSoQVstcnDdJZrBAphUt9hF71fMPo3O8yRCcII71QYJLwALg79kmJKn69GW4Fp4CJrFdpxTUdPjuoA4CBWnZE0u0Ts7tPh06SCjDfH/gYcU4bVnz5YR2R3ekbB4bykmiRDMOl/ZAIvknnzYnQOtxBxcuNNgLDWqIyVh0oijs7xlJaX++J4WDyYw== root@hadoop3

最终authorized_keys文件内容如下:

ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEA5T0HO+zPxb8Y7fN5H7wE4DCQF2gfPF+BiDQq1/OThZaRnwGL10/Q81pmzhkDc57i42HBKgQZcMn68Xto5R1yoZ0izZp9p89Q6e0jQaMYuqeYbDekmC4YG+74hu/GCK2Kyc4WyyDuyzv4dyqcR82gRSdy3TBEZs01oi4w4NV4Z4GtdHg6mdgewBUMBxuAvPYW6jXjqJI6Cvhy7UE1I6liMiDdEfipZQbBbl1UR0qnv9hiOfsobyGDQHB9ZVBF4pgKRCzxsY8KHGmrVUbrYmkNIGRDd4h3X2aT/CAHcWXO1Zt0AJZBb1vbK3I4LZYshxPMzr4L/yVj1e1SeSfkEKIVww== root@hadoop1
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAxeglbXtnB+PgFE0JS2dZ22LULDFus9G02dEGRUHFOU+kGijNjL5ZS1flU9f1jKr/Q0goZJ8dVqEslt/OmeD6POaRnq7ru7y+8x/9JkVviWeSX8sa8vKBIUQVW32djChACSFqCvBzlBgLs7XUJqzaVWshB7DJuOWBDhyxA0vnSpo2Bqg7ngVGaIlvjygKew2DPv2Basenez7hQ2BUQVjKoTaw14N0YmWF3kHO+xygCpT5X4Qkkx8Ww3j6zTYAfVv5VSHYyJX8FcfoYqias2/IKiI7SnT7zO0iEA4tFtrzp0gkmmYZWtaFxWrF7C23ebmRiRTziNWQ4FFk9Z93upit8Q== root@hadoop2
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEA2Wka9xNTOAtVwgZRxO3N3tvlxF1UVF9FwdeOTQJgSESuioqtvct651ew1y0PQcF0DXTiApe0BScH1TkJZeDKLK77gic4gL8jRLOX4D9STj05XueIhS2KpzavzIXAs8SuzmbVz2dCzUW2CPCg90I921vC/UBgrr4pSoQVstcnDdJZrBAphUt9hF71fMPo3O8yRCcII71QYJLwALg79kmJKn69GW4Fp4CJrFdpxTUdPjuoA4CBWnZE0u0Ts7tPh06SCjDfH/gYcU4bVnz5YR2R3ekbB4bykmiRDMOl/ZAIvknnzYnQOtxBxcuNNgLDWqIyVh0oijs7xlJaX++J4WDyYw== root@hadoop3

三、授权authorized_keys文件

  1. 登录hadoop1,在.ssh目录下输入命令:
    chmod 600 authorized_keys
    效果如下:
    [root@hadoop1 .ssh]# ls -al
    total 20
    drwx------ 2 root root 4096 Nov 18 22:21 .
    dr-xr-x—. 8 root root 4096 Nov 18 22:29 …
    -rw------- 1 root root 394 Nov 18 22:02 authorized_keys
    -rw------- 1 root root 1675 Nov 18 21:54 id_rsa
    -rw-r–r-- 1 root root 1183 Nov 18 22:21 id_rsa.pub

四、将授权文件分配到其他主机上
1)登录hadoop1,将授权文件拷贝到hadoop2、hadoop3,命令如下:
scp /root/.ssh/authorized_keys hadoop02:/root/.ssh/ #拷贝到hadoop2上
会提示
The authenticity of host ‘hadoop2 (192.168.253.129)’ can’t be established.
RSA key fingerprint is d2:39:45:a0:11:83:ed:38:64:c7:ff:5c:4a:e6:eb:af.
Are you sure you want to continue connecting (yes/no)? 选择yes
root@hadoop2’s password: (输入hadoop2的密码 cloudera hadoop3同理)

scp /root/.ssh/authorized_keys hadoop03:/root/.ssh/ #拷贝到hadoop3上
2)至此,免密码登录已经设定完成,注意第一次ssh登录时需要输入密码,再次访问时即可免密码登录

五、测试
从hadoop1中进入 hadoop2 输入hadoop2
[root@hadoop1 .ssh]# ssh hadoop2

成功
[root@hadoop2 ~]

退出
[root@hadoop2 ~]# exit

从hadoop1中进入 hadoop3 输入hadoop3
[root@hadoop1 .ssh]# ssh hadoop3

成功
[root@hadoop3 ~]

退出
[root@hadoop3 ~]# exit

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,我可以为你介绍一下如何配置Hadoop集群环境。 Hadoop是一个分布式计算框架,它可以处理大规模数据集。在Hadoop中,数据被划分为多个块,并在多台计算机上并行处理。因此,Hadoop需要在多台计算机上运行,形成一个分布式计算集群。 下面是配置Hadoop集群环境的基本步骤: 1. 准备计算机 在配置Hadoop集群之前,需要准备多台计算机。其中一台计算机作为主节点,其他计算机作为从节点。主节点和从节点需要安装相同版本的Hadoop软件。每台计算机的操作系统也需要保持一致。 2. 配置SSH密码登录 在Hadoop集群中,各个节点之间需要进行通信。为了方便、安全地进行通信,需要配置SSH密码登录。具体来说,需要在主节点上生成SSH公钥,并将公钥复制到所有从节点上。这样,主节点就可以无需输入密码登录到从节点上了。 3. 配置Hadoop环境变量 每台计算机上都需要配置Hadoop环境变量,以便系统可以识别Hadoop命令。具体来说,需要将Hadoop二进制文件所在的路径添加到PATH环境变量中。 4. 配置Hadoop集群设置 Hadoop集群的设置需要在主节点上进行。具体来说,需要编辑Hadoop的配置文件,包括core-site.xml、hdfs-site.xml、mapred-site.xml和yarn-site.xml等文件。在配置文件中,需要设置Hadoop集群的各种参数,包括文件系统、数据复制因子、数据块大小、任务调度器等。 5. 启动Hadoop集群 在所有节点上配置完成后,就可以启动Hadoop集群了。具体来说,需要在主节点上启动Hadoop的各个服务,包括NameNode、DataNode、ResourceManager和NodeManager等。启动完成后,就可以在Hadoop集群上运行MapReduce程序了。 需要注意的是,Hadoop集群的配置比较复杂,需要根据具体情况进行调整。同时,Hadoop的版本也有很多,不同版本的配置可能存在差异。因此,在配置Hadoop集群时,建议参考官方文档和社区资料,以确保配置正确。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值