首先下载一个环境依赖包(我的hadoop版本是3.1.3,如果是其他版本的需要另外寻找资源下载)
参考:Windows环境下hadoop安装和配置详细步骤(图文)_yujkss的博客-CSDN博客_windows如何安装hadoop
链接:https://pan.baidu.com/s/1mnUJKFi8SDQxurn_D_DAvg
提取码:hjl4
下载好以后将这个依赖包放到没有中文的路径下
然后去配置环境变量
添加一个HADOOP_HOME(值是上面下载好的hadoop3.1.0的路径)
在path下添加环境变量
然后确定即可
进入hadoop3.1.0的bin目录下,启动进程
画面一闪而过是正常的
出现以下画面是缺少对应的微软运行库
下载双击安装即可
链接:https://pan.baidu.com/s/11McaAQFTo1QVpmcjtc-UJQ
提取码:hjl4
接下来使用IDEA创建MAVEN工程
在创建好的Maven工程下修改Maven配置
然后再pom.xml下添加如下代码(不同版本的hadoop记得替换版本号,我的是3.1.3)
<dependencies>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-client</artifactId>
<version>3.1.3</version>
</dependency>
<dependency>
<groupId>junit</groupId>
<artifactId>junit</artifactId>
<version>4.12</version>
</dependency>
<dependency>
<groupId>org.slf4j</groupId>
<artifactId>slf4j-log4j12</artifactId>
<version>1.7.30</version>
</dependency>
</dependencies>
然后再resource目录下创建一个log4j.properties日志文件
添加如下内容
log4j.rootLogger=INFO, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
log4j.appender.logfile=org.apache.log4j.FileAppender
log4j.appender.logfile.File=target/spring.log
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
接下来就是去创建一个Java类
在执行客户端操作的时候可以参考这个流程
1、创建一个客户端对象
2、执行相关操作命令
3、关闭资源
在这个新创建的类里添加两个方法和一个全局对象
public class HdfsClient {
FileSystem fs;
@Before
public void init() throws URISyntaxException, IOException, InterruptedException {
// 连接的集群nn地址
URI uri = new URI("hdfs://hadoop102:8020");
// 创建一个配置文件
Configuration configuration = new Configuration();
// 登录的用户
String user = "hjl";
// 获取客户端对象
fs = FileSystem.get(uri, configuration, user);
}
@After
public void close() throws IOException {
fs.close();
}
}
这两个方法对应的是创建一个客户端对象和关闭资源。因为这两个操作在每个命令操作前后都需要执行,所以用这种方法提取出来。
接下来是创建一个测试方法,用来测试创建目录
/**
* 创建文件夹
*/
@Test
public void mkdir() throws IOException {
// 创建文件
fs.mkdirs(new Path("/xiyou/huaguoshan"));
}
执行后去浏览器查看
测试上传文件
在本地创建一个txt文件
然后编写一个新的测试方法
/**
* 上传文件
*/
@Test
public void testPut() throws IOException {
// 分析参数:1.是否删除源文件,2.是否覆盖已有文件,3.源文件路径,4.目标路径
fs.copyFromLocalFile(true,true,new Path("E:\\SGG-Hadoop\\huaguoshantangseng.txt"),new Path("/xiyou/huaguoshan"));
}
去浏览器查看是否上传成功
大家可以再去试一下前两个参数
其余的操作大致相同
接下来我们测试一下配置文件的操作
在我们的虚拟机中我们有hdfs-site.xml文件,这个文件中有一个参数是hdfs.replication,这个参数是针对副本数的一个操作。
而在操作过程中,配置文件参数是有一个优先级的,如下:
默认配置文件参数=>hdfs-site.xml文件配置=>项目资源目录下的配置文件hdfs-site.xml=>代码中的配置
现在让我们来试验一下
在resouces目录下创建一个hdfs-site.xml文件,添加如下内容
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
让我们再执行一遍上传操作
然后去查看浏览器的数据
这个时候让我们去对比一下之前上传文件的副本数,会发现不一样了。
现在我们再去init方法下配置一下
再执行一遍上传方法
发现副本数现在变成2
其他的配置文件的优先级也是如此
下面我们来试验下载操作
创建一个测试方法
/**
* 下载
*/
@Test
public void testGet() throws IOException {
// 参数解析:1.是否删除源文件,2.源文件路径,3.目标路径,4.是否校验数据
fs.copyToLocalFile(true,new Path("/xiyou/huaguoshan"),new Path("E:\\SGG-Hadoop"),false);
}
会发现在本地的文件中有个crc文件,这个文件是hdfs在传输文件的时候进行文件校验的,防止在传输过程中出现内容丢失等错误,将第四个参数设置为true,这个文件则不会产生,大家可以去试一下。这个参数在开发过程中用的较少
下面我们来测试删除操作
编写一个新的测试方法
/**
* 删除
*/
@Test
public void testRm() throws IOException {
// 参数分析:1.删除文件名,2.是否递归删除——如果删除是目录则填true,否则false
fs.delete(new Path("/xiyou"),false);
}
已经删除完毕
下面我们来测试文件的更名和移动操作
编写一个测试方法
/**
* 更名和移动
*/
@Test
public void testRn() throws IOException {
// 参数解析:1.源文件路径 2.目标路径及名称——在第二个参数中既可以表明移动后的位置,同时可以与更名操作进行
fs.rename(new Path("/wcinput/word.txt"),new Path("/word1.txt"));
}
文件被移动且更名,如果第二个参数写的源文件路径,则只是修改名称。
现在我们来测试获取文件的详细信息
编写一个测试方法
/**
* 获取文件信息
*/
@Test
public void fileDetail() throws IOException {
// 参数分析:1.目标路径,2.是否递归
RemoteIterator<LocatedFileStatus> listFiles = fs.listFiles(new Path("/"), true);
// 遍历
while (listFiles.hasNext()) {
LocatedFileStatus fileStatus = listFiles.next();
// 开始打印文件信息
System.out.println("=======" + fileStatus.getPermission() + "========");
System.out.println(fileStatus.getOwner());
System.out.println(fileStatus.getGroup());
System.out.println(fileStatus.getLen());
System.out.println(fileStatus.getModificationTime());
System.out.println(fileStatus.getReplication());
System.out.println(fileStatus.getBlockSize());
System.out.println(fileStatus.getPath());
System.out.println(fileStatus.getPath().getName());
// 获取副本参数
BlockLocation[] blockLocations = fileStatus.getBlockLocations();
System.out.println(Arrays.toString(blockLocations));
}
}
可以看到文件信息已经全部打印出来了
接下来我们测试判断是否为文件的方法
编写一个测试方法
/**
* 判断是一个文件还是一个文件夹
*/
@Test
public void isFile() throws IOException {
FileStatus[] fileStatuses = fs.listStatus(new Path("/"));
// 遍历
for (FileStatus fileStatus : fileStatuses) {
if (fileStatus.isFile()) {
System.out.println("文件:" + fileStatus.getPath().getName());
} else {
System.out.println("目录:" + fileStatus.getPath().getName());
}
}
}