使用ssh传输文件

35 篇文章 12 订阅
31 篇文章 4 订阅

  使用SSH在电脑之间传输文件,因为本教程已经用VMware 14 克隆 CentOS 7,把主机的整个Hadoop文件到其他电脑上,达到Hadoop创建从机的要求。在此就不再详述。

  如果是使用其他台式物理电脑的朋友,可以使用使用ssh将配置好的hadoop传到另外从机电脑上
本教程使用ssh将在主机上配置好的hadoop和环境变量路径传到另外两台虚拟机

第一步:

  查看此时路径:
在这里插入图片描述

第二步:

  使用scp传输Hadoop的根目录到hadoop2:/Myhadoop/hadoop-2.7.4上(详细的scp命令见下面)
在这里插入图片描述

第三步:

  同理第二步
在这里插入图片描述

第四步:

  传输profile文件
在这里插入图片描述

SSH的例子:在linux下一般用scp这个命令来通过ssh传输文件

1、从服务器上下载文件

  scp username@servername:/path/filename /var/www/local_dir(本地目录)

   例如scp root@192.168.0.101:/var/www/test.txt
   把192.168.0.101上的/var/www/test.txt 的文件下载到/var/www/local_dir(本地目录)

2、上传本地文件到服务器

  scp /path/filename username@servername:/path

  例如scp /var/www/test.php root@192.168.0.101:/var/www/
  把本机/var/www/目录下的test.php文件上传到192.168.0.101这台服务器上的/var/www/目录中

3、从服务器下载整个目录
  scp -r username@servername:/var/www/remote_dir/(远程目录) /var/www/local_dir(本地目录)

  例如:scp -r root@192.168.0.101:/var/www/test /var/www/
  从服务器root@192.168.0.101:/var/www/test下载整个目录到/var/www/

4、上传目录到服务器
  scp -r local_dir username@servername:remote_dir

  例如:scp -r test root@192.168.0.101:/var/www/
  把当前目录下的test目录上传到服务器的/var/www/ 目录

快速链接

上一篇汇总目录下一篇
 5.3.2 安装密钥 云计算数据平台-hadoop集群  5.4 构建HDFS
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值