hadoop02

1.配置网卡信息
[root@hadoop101 桌面]# vi /etc/udev/rules.d/70-persistent-net.rules
2.配置ip
[root@hadoop101 桌面]# vi /etc/sysconfig/network-scripts/ifcfg-eth0
3.修改主机名
[root@hadoop101 桌面]# vi /etc/sysconfig/network
4.传输 将101上的的/opt/module 目录传输到102的/opt目录中
[root@hadoop101 hadoop-2.7.2]# scp -r /opt/module/ root@hadoop102:/opt
5.在102上将101上的/etc/profile复制过来
[root@hadoop102 etc]# scp root@hadoop101:/etc/profile /etc/profile
6.在103上,将101上的software目录复制到102上
[root@hadoop103 opt]# scp -r root@hadoop101:/opt/software root@hadoop102:/opt/
7.将102、103、104上的/opt/module/的权限所有者改为 dd
chown dd:dd -R module
8.ssh配置
按cd进入根目录,使用命令 【ls -al】查看当前目录是否有.ssh目录,如果没有,则可以使用命令【ssh 目标主机名】先访问目标主机。如果有,则使用cd命令进入.ssh目录。使用命令【[dd@hadoop102 .ssh]$ ssh-keygen -t rsa】产生私钥与公钥。然后使用【ssh-copy-id 目标主机名】将公钥发给其他机器,以实现ssh方式访问。
9.数据同步:将102下的文件同步到103下
[dd@hadoop102 tmp]$ rsync -rvl /opt/tmp root@hadoop103:/opt
10.数据合并:
如果上传到hdfs中的的文件超出一定的大小,系统会将文件分成多个小文件,这时如果需要看到原文件,则需要将多个小文件进行合并与解压。
合并命令格式为:
cat 小文件1 >> 目标文件名
cat 小文件1 >> 目标文件名
解压命令格式为:
tar -zxvf 目标文件名 [目标路径,不填默认为当前目录]

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值