linux搭建hadoop环境时,实现linux集群间免密钥登陆

原创 2016年06月01日 11:10:28

  在搭建hadoop环境时,要实现机器间的免登入,我通过网上查资料,差不多熟悉了实现的方法,所以整理一下

 避免自己忘记,也给别人一个参考!

 三台机器的属性:

   name:master      ip:192.168.234.12     operatesystem:centos 6.3    主节点

   name:slave1      ip:192.168.234.13     operatesystem:centos 6.3    子节点1

   name:slave2      ip:192.168.234.14     operatesystem:centos 6.3    子节点2

  三个机器的hadoop用户都为learn,即三台机器操作环境为learn用户

 

 操作前修改一下/etc/hosts文件,将这三个ip都添加进去(三台机器都需要进行这个步骤)

   命令:vi   /etc/hosts

   将一下内容添加进去:

      192.168.234.12  master

      192.168.234.13  slave1

     192.168.234.14  slave2 

 (千万别写错,如果写错,以后的操作会报错)


第一步:

   首先在各个机器中生成id_dsa.pub

   在各个机器中输入以下命令

   ssh-keygen -t  rsa               :生成公共密钥

   之后按三次回车就可以了,

   你查看/home/learn/.ssh目录就会发现多了两个文件,分别为id_rsa, id_rsa.pub


   再将目录中的id_dsa.pub,复制一份并改名为authorized_keys(每台机器都需要)

    命令:cp  /home/learn/.ssh/id_rsa.pub    /home/learn/.ssh/authorized_keys


第二步:

  将slave1节点和slave2节点的authorized_keys 追加到master的authorized_keys

  换句话说就是,将slave1和slave2的authorized_keys里的东西复制粘贴到master的authorized_keys

  master的authorized_keys就有了三个公共密钥

   具体的操作命令:scp  /home/learn/.ssh/authorized_keys  learn@192.168.234.12:/home/learn/authorized_keys1(在节点1的操作)

 scp  /home/learn/.ssh/authorized_keys  learn@192.168.234.12:/home/learn/authorized_keys2(在节点2的操作)

之后你就会发现master的/home/learn/.ssh目录多了两个来自节点1和节点2的公共密钥

   在master上的操作:

   cat  /home/learn/.ssh/authorized_keys1  /home/learn/.ssh/authorized_keys

   cat  /home/learn/.ssh/authorized_keys2  /home/learn/.ssh/authorized_keys

  执行之后master的authorized_keys文件中就有了三个公共密钥了

 

  第三步:

  用master上的/home/learn/.ssh/authorized_keys替换节点1,节点2的authorized_keys文件

 在master上的操作 

 scp  /home/learn/.ssh/authorized_keys learn@192.168.234.13:/home/learn/.ssh/authorized_keys(替换节点1)

scp  /home/learn/.ssh/authorized_keys learn@192.168.234.14:/home/learn/.ssh/authorized_keys(替换节点2)


第四步:

    通过前面的三步你发现,并不能免密码登入,这时候就需要第四步,改权限

      对三台机器都使用下面的命令:

       chmod 600   /home/learn/.ssh/authorized_keys (必须在root用户上进行)


 检验:ssh  192.168.234.13  (我用的是远程登入工具,在master内的操作)

            ssh  192.168.234.14 (这时候你就可以不用输入密码,直接登入)

相关文章推荐

实现Linux免密钥登陆

我们在一台Linux机器上利用SSH登陆其他Linux机器时,需要我们输入PassWord,以及搭建集群时,节点之间相互通信,都需要输入PassWord。第一,长时间SSH登陆需要反复输入密码;第二,...

正式生产环境下hadoop集群的DNS+NFS+ssh免密码登陆配置

环境虚拟机centos6.5 主机名h1  IP 192.168.137.11  作为DNS FNS的服务器 主机名h2  IP 192.168.137.12 主机名h3  IP 192.168.1...

Linux环境下使用Docker搭建Hadoop分布式集群

学习在Linux服务器上使用Docker进行Hadoop的分布式集群搭建
  • deCoin
  • deCoin
  • 2017年02月07日 12:22
  • 196

hadoop环境搭建准备工作之二:linux下设置ssh无密码登陆

ssh配置   主机A:172.16.16.101 主机B:172.16.16.102  需要配置主机A无密码登录主机A,主机B 先确保所有主机的防火墙处于关闭状态。 在主机A上执行如下: ...

linux下hadoop集群搭建

  • 2014年01月13日 14:34
  • 93KB
  • 下载

SSH免密码互相登陆-搭建hadoop集群

之前上学搞过的hadoop,spark集群,现在有点忘了,特此写一篇关于搭建hadoop,spark集群过程中重要节点。 先介绍通过SSH实现机器间的无密码互相访问。 先介绍下我的环境: VM...

Linux_RedHat、CentOS上搭建Hadoop集群

  • 2012年08月13日 17:52
  • 21KB
  • 下载

Hadoop全分布集群搭建(2)——SSH免密码登陆

Hadoop全分布集群搭建SSH免密码登陆 为所有节点设立用户hadoop Master节点免密登录 生成并上传公钥 Mster与Slave节点之间免密登录Hadoop全分布集群搭建——SSH免密码登...

centos7下调试集群三台机器实现免密登陆--hadoop安装系列之一

一、实验目标 安装三台centos7虚拟机,组建hadoop实验集群,centos是从centos7官网下载的最新版本,默认系统安装,创建hadoop用户组,新建用户hadoop并加入hadoop组。...
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:linux搭建hadoop环境时,实现linux集群间免密钥登陆
举报原因:
原因补充:

(最多只允许输入30个字)