Hadoop学习第一天是这样的
package com.atguigu.hdfs;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.junit.After;
import org.junit.Before;
import org.junit.Test;
import java.io.IOException;
import java.net.URI;
import java.net.URISyntaxException;
/**
* 客户端代码常用套路
* 1.获取一个客户端对象
* 2.执行相关的操作命令
* 3.关闭资源
* HDFS zookeeper
*/
public class HdfsClient() {
private FileSystem fs;
@Before
public void init() throws URISyntaxException, InterruptedException, IOException {
// 连接的集群nn地址
URI uri = new URI("hdfs://node1:8020");
// 创建一个配置文件
Configuration configuration = new Configuration();
// 用户
String user = "root";
// 1.获得了客户端对象
fs = FileSystem.get(uri, configuration,user);
}
@After
public void close() throws IOException {
// 3.关闭资源
fs.close();
}
@Test
public void textmkdir() throws URISyntaxException, IOException, InterruptedException {
// 2.创建文件夹
fs.mkdirs(new Path("/xiyou/huaguoshan"));
}
}
/**
* public class HdfsClient {
*
* @Test
* public void textmkdir() throws URISyntaxException, IOException, InterruptedException {
*
* // 连接的集群nn地址
* URI uri = new URI("hdfs://node1:8020");
*
* // 创建一个配置文件
* Configuration configuration = new Configuration();
*
* // 用户
* String user = "root";
*
* // 1.获得了客户端对象
* FileSystem fs = FileSystem.get(uri, configuration,user);
*
* // 2.创建文件夹
* fs.mkdirs(new Path("/xiyou/huaguoshan"));
*
* // 3.关闭资源
* fs.close();
* }
* }
*/
1