5、确保/usr/local/src/目录和子文件夹的所属用户以及所属组为ec2-user
查看src的所属用户及所属组
ll /usr/local
若是ec2-user,下一步
若不是:
修改所属用户及所属组
sudo chown -R ec2-user:ec2-user /usr/local/src
6、远程分发
需要ssh支撑
若没有ssh需安装
1、ssh-keygen
2、ssh-copy-id 主机名 #就是上面设置的
已经有的直接分发就行
scp [-r] 源目录 [用户名@]主机名或IP:保存的地址
scp -r jdk/ slave1:/usr/local/src
scp -r jdk/ slave2:/usr/local/src
7、检查另外两台机器的jdk路径,环境变量设置一下
可等到Hadoop安装配置好一块分发,设置环境变量
五、Hadoop安装
1、解压到指定目录 /usr/local/src
2、重命名
3、配置环境变量
sudo vim /etc/profile
export HADOOP_HOME=/usr/local/src/hadoop
export PATH= P A T H : PATH: PATH:HADOOP_HOME/bin:$HADOOP_HOME/sbin
4. 刷新设置,运行hadoop version 查看是否配置成功