1.配置网卡信息
[root@hadoop101 桌面]# vi /etc/udev/rules.d/70-persistent-net.rules
2.配置ip
[root@hadoop101 桌面]# vi /etc/sysconfig/network-scripts/ifcfg-eth0
3.修改主机名
[root@hadoop101 桌面]# vi /etc/sysconfig/network
4.传输 将101上的的/opt/module 目录传输到102的/opt目录中
[root@hadoop101 hadoop-2.7.2]# scp -r /opt/module/ root@hadoop102:/opt
5.在102上将101上的/etc/profile复制过来
[root@hadoop102 etc]# scp root@hadoop101:/etc/profile /etc/profile
6.在103上,将101上的software目录复制到102上
[root@hadoop103 opt]# scp -r root@hadoop101:/opt/software root@hadoop102:/opt/
7.将102、103、104上的/opt/module/的权限所有者改为 dd
chown dd:dd -R module
8.ssh配置
按cd进入根目录,使用命令 【ls -al】查看当前目录是否有.ssh目录,如果没有,则可以使用命令【ssh 目标主机名】先访问目标主机。如果有,则使用cd命令进入.ssh目录。使用命令【[dd@hadoop102 .ssh]$ ssh-keygen -t rsa】产生私钥与公钥。然后使用【ssh-copy-id 目标主机名】将公钥发给其他机器,以实现ssh方式访问。
9.数据同步:将102下的文件同步到103下
[dd@hadoop102 tmp]$ rsync -rvl /opt/tmp root@hadoop103:/opt
10.数据合并:
如果上传到hdfs中的的文件超出一定的大小,系统会将文件分成多个小文件,这时如果需要看到原文件,则需要将多个小文件进行合并与解压。
合并命令格式为:
cat 小文件1 >> 目标文件名
cat 小文件1 >> 目标文件名
解压命令格式为:
tar -zxvf 目标文件名 [目标路径,不填默认为当前目录]
hadoop02
最新推荐文章于 2024-03-10 17:39:19 发布