Ubuntu搭建Hadoop3.2.1详细步骤(一)SSH公钥链接
一、环境配置
- ubuntu14.04.0
下载地址:链接:https://pan.baidu.com/s/1BVw8aiaSbJzsqwEQP327jA&shfl=sharepset 提取码:9mqn - jdk1.8
下载地址:链接:https://pan.baidu.com/s/1HBMqX4sMAFqdUINt13mkvQ&shfl=sharepset 提取码:capc - hadoop-3.2.1
下载地址:链接:https://pan.baidu.com/s/1q98qNiC3f7mja6y7n-f9MQ&shfl=sharepset 提取码:4p7w
二、jdk配置
https://blog.csdn.net/miwanmeng/article/details/81670538参照这篇文章。
三、hadoop环境变量配置
打开命令行,输入如下命令
sudo gedit /etc/profile
在文件中添加如下代码
export HADOOP_HOME=/home/wy/hadoop-3.2.1
exprot PATH=
P
A
T
H
:
H
A
D
O
O
P
H
O
M
E
/
b
i
n
:
PATH:HADOOP_HOME/bin:
PATH:HADOOPHOME/bin:$HADOOP_HOME/sbin
在命令行中执行如下命令
source /etc/profile
检查是否成功,在命令行中输入如下命令
hadoop version
配置SSH无密码访问
-
在命令行输入如下命令
sudo apt-get update -
安装SSH-server
在命令行输入如下命令
sudo apt-get install openssh-server -
生成公钥
在命令行输入 sudo ssh-keygen -t rsa
遇到让你输入文件目录, 直接按回车不管,直到结束。
之和 输入 cd .ssh
然后用 ls 指令查看是否有刚才生成的 id_rsa 和 id_rsa.pub文件
如果没有重新生成密钥。 -
修改hosts文件
输入指令 sudo nano /etc/hosts
在里面加入
192.168.111.128 master
192.168.111.129 slave1
192.168.111.130 slave2
这里的ip地址换成你自己的三台机器对应IP地址
按ctrl+x 输入y保存 回车退出 -
建立公钥链接
进入上面3提到的.ssh目录,输入如下指令
ssh-copy-id wy@slave1 解释一下:"wy"是我用来登陆其他机子的用户名,目标机“slave1”上必须要有该用户。注意这里:目标机必须要执行步骤1和2.
第一次的时候会让你输入对方的密码。
成功的话会提示让你用如下指令重新登陆slave1
ssh slave1
重复5的操作与slave2建立连接
后续请等待更新。。。。