Hadoop学习笔记(三):java操作Hadoop

1. 启动hadoop服务。

2. hadoop默认将数据存储带/tmp目录下,如下图:

    由于/tmp是linux的临时目录,linux会不定时的对该目录进行清除,因此hadoop可能就会出现意外情况。下面对这个配置进行修改。修改core-site.xml文件vim /usr/local/hadoop/etc/hadoop/core-site.xml将这个值修改到/var/hadoop目录下

3. 修改完毕后,重启hadoop服务(stop-dfs.sh、start-dfs.sh),然后重新格式化namenode

    hdfs namenode -format

4. 使用java来操作hdfs

5. 新建java项目,导入如下几个包:

    a). hadoop安装目录下share/hadoop/common下的common包

    

    b). hadoop安装目录下share/hadoop/common/lib下的所有包

    

    c). hadoop安装目录下share/hadoop/hdfs下的hdfs包

    

6. 新建java类HelloHDFS.java,测试java程序读取hadoop当中存储的文件。现在我的hadoop集群根目录当中有一个Hello.java文件,下面用java程序来读取它。

 1 import java.io.InputStream;
 2 import java.net.URL;
 3 import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
 4 import org.apache.hadoop.io.IOUtils;
 5 
 6 public class HelloHDFS {
 7     public static void main(String[] args) throws Exception {
 8         // 设置URL流处理器工厂,即URL按照什么协议进行处理,默认的是HTTP协议的处理工厂
 9         URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory()); 
10         URL url = new URL("hdfs://192.168.17.100:9000/Hello.java");
11         InputStream is = url.openStream();
12         IOUtils.copyBytes(is, System.out, 4096, true); 
13      // 4096表示缓冲区的大小,true表示执行完毕后系统会自动关闭流
14     }
15 }

7. 运行上述程序,观察结果,发现已经读取到了hadoop当中存储文件。

8. 上述为方式一,下面介绍一种更好用的方式。

1 // 方式二:
2 Configuration conf = new Configuration();
3 conf.set("fs.defaultFS", "hdfs://192.168.17.100:9000");
4 FileSystem fs = FileSystem.get(conf);
5 boolean success = fs.mkdirs(new Path("/skyer"));
6 System.out.println(success);

    上述代码为在hadoop根目录下创建一个skyer目录(如果原来就有该目录,会覆盖),并打印创建结果,结果为true。若出现下图错误:

    

    在core-site.xml文件中将dfs.permissions.enabled配置为false,或者输入以下命令hadoop fs -chmod 777 /修改hadoop根目录的权限(危险,不推荐),还有一个方法是在windows机器上配置一个环境变量HADOOP-USER_NAME,还有一种方法是将

    FileSystem fs = FileSystem.get(conf);

    替换成

    FileSystem fs = FileSystem.get(new URI("hdfs://192.168.17.100:9000"),conf,"root");

9. 其他操作hadoop的示例,直接看代码:

 1 public class HelloHDFS {
 2     public static void main(String[] args) throws Exception {
 3         // 方式二:
 4         Configuration conf = new Configuration();
 5         conf.set("fs.defaultFS", "hdfs://192.168.17.100:9000");
 6         FileSystem fs = FileSystem.get(conf);
 7         boolean success = fs.mkdirs(new Path("/skyer")); // 创建目录
 8         System.out.println(success);
 9         success = fs.exists(new Path("/skyer")); // 判断文件或者目录是否存在
10         System.out.println(success);
11 
12         success = fs.delete(new Path("/skyer"), true);
13         // 删除,第二个参数为true的话会真正的删除文件,为false的话是将该文件放到垃圾桶里
14         System.out.println(success);
15 
16         // 上传文件到hadoop
17         FSDataOutputStream out = fs.create(new Path("/upload.data"), true);
18         FileInputStream fis = new FileInputStream("E://HelloHDFS.java");
19         IOUtils.copyBytes(fis, out, 4096, true);
20 
21         // 列取目录下所有文件和目录的信息
22         FileStatus[] statuses = fs.listStatus(new Path("/"));
23         for (FileStatus status : statuses) {
24             System.out.println(status.getPath());
25             System.out.println(status.getPermission());
26             System.out.println(status.getReplication());
27         }
28     }
29 }

10. 在master机器上输入命令hadoop fs -text /upload.data进行查看示例中上传的文件,类似linux里的cat命令

转载于:https://www.cnblogs.com/Oven5217/p/7605145.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值