1、scp远程传输命令,slave1必须是在hostname文件中配置好的地址映射,是另一台主机的访问ip映射,将本地的hosts传输到slave1主机的etc文件夹下,如果没有设置好地址映射的话,就将slave1换为你要接受文件的主机的ip地址
scp /etc/hosts slave1:/etc
传输文件夹的话加上-r
scp -r xxx yyy
2、mkdir
mkdir -p /data/packs
mkdir /software
3、解压缩
tar zxvf hadoop-3.2.2.tar.gz -C yyyy
tar xzf spark-2.4.4-bin-hadoop2.7.tgz
将xxxx解压到yyyy中
4、重命名
mv xxx yyy
将xxx改名为yyy
5、vi /etc/profile 进入环境变量的编辑
PATH那一行就是把环境变量添加到系统里去,不同环境路径用:隔开
. /etc/profile
使用 . 可以刷新环境变量文件profile
6、cp xxx yyy
复制xxx 到yyy
7、设置ssh
ssh-keygen 直接三次回车键,不设置密码(练习的时候设置)
8、ln -s xxx yyyy 在yyyy处产生一个xxx的软链接,不会占用磁盘。