Hadoop入门(3)Shell和JAVA的简单演示+代码实现基础云盘功能

本文介绍了如何使用Hadoop的Shell和JAVA API创建、查看、上传和下载文件。通过Shell,可以在HDFS上执行基本操作,如创建目录。JAVA API的使用涉及配置XML文件、导入必要的库,并解决可能遇到的权限和连接问题。文章还简要提到了Python的使用,并给出了相关参考资料。
摘要由CSDN通过智能技术生成

目录

一、Shell的使用

二、JAVA api的使用

(一)配置xml文件

(二)简单代码demo(创建、查看、上传、下载)

三、Python的使用

四、参考与推荐


一、Shell的使用

  • 平时的linux指令是针对本地电脑进行的,而HDFS是分布式的,它针对的是通过网络连接的计算机集群,因此在指令上有所区别。
  • 在大部分普通linux指令前加上“hdfs dfs -”即可。
  • 例如我们想要创建一个文件夹,平时都是用“mkdir /test1”指令在本地虚拟机上创建"test1"目录,但是如果想要在HDFS中创建一个“test1”目录,就需要在普通linux指令前加上“hdfs dfs -”,如下。
hdfs dfs -mkdir /test1

 

  • 在web网页上可以看到我们的确已经创建好了目录test1。 

二、JAVA api的使用

  • 由上面的例子可以看到,我们可以通过shell操纵我们的HDFS,通过shell创建了一个目录,那如何用java api进行同样的操作呢?

(一)配置xml文件

1、创建项目

  • 在本机电脑上用ecplise创建JAVA项目,不赘述。

2、导包

  • 找到hadoop的路径,进入“..hadoop-2.7.0\share\hadoop\common”路径,看到有三个Jar包,将它导入到JAVA项目中。 
  • 同样的,再将“..hadoop-2.7.0\share\hadoop\common\lib”下的所有jar包导入。
  • 再将“..hadoop-2.7.0\share\hadoop\hdfs”下的3个jar包导入。
  • 再将“..hadoop-2.7.0\share\hadoop\hdfs\lib”下的所有jar包导入。

3、导入虚拟机的配置文件

  • 利用xftp进入到虚拟机的“.../hadoop-2.7.0/etc/hadoop”目录下,找到两个文件“hdfs-site.xml”和"core-site.xml",导出并放到项目的/src根目录下。 

  • 要修改“core-site.xml”里面的“localhost”为虚拟机的IP地址,不然本机无法找到虚拟机,它不知道这个“localhost”是谁。&
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值