HDFS Java API编程——云盘系统

本文介绍了如何利用HDFS Java API构建一个云盘系统,系统基于SpringBoot,前端使用Thymeleaf。实现了登录注册、文件上传、下载和删除等功能。遇到的权限问题通过修改根目录权限为777解决,但存在安全隐患。下载时的文件冲突和时间显示错误也进行了调整。
摘要由CSDN通过智能技术生成

HDFS Java API编程——云盘系统

实现内容

云盘系统通过互联网为企业和个人提供信息的储存、读取、下载等服务,具有安全稳定、海量存储的特点。根据用户群定位,云盘系统可以划分为公有云盘、社区云盘、私有云盘等。

利用HDFS Java API,编写一个云盘系统,实现功能如下:

实现框架

采用SpringBoot实现,前端界面使用thymeleaf模板。

结构:

----config(配置类)

--------LoginHandlerInterceptor

--------MvcConfig

----controller(控制层)

--------CloudController

--------LoginController

----dao(实体类)

--------FileSystemDao

----hdfs(启动类)

--------HdsfApplication

----service(服务层)

--------HdfsService

--------LoginService


需要的依赖

    <dependencies>
<!--        springboot,web启动-->
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-web</artifactId>
        </dependency>
<!--        lombok(可以不用,用的话要加插件)-->
        <dependency>
            <groupId>org.projectlombok</groupId>
            <artifactId>lombok</artifactId>
            <optional>true</optional>
        </dependency>
<!--        thymeleaf-->
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-thymeleaf</artifactId>
        </dependency>
<!--        springboot,test-->
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-test</artifactId>
            <scope>test</scope>
        </dependency>
<!--        hdfs需要的依赖-->
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-client</artifactId>
            <version>2.8.2</version>
        </dependency>
    </dependencies>

注册功能(LoginService)

	/**
     * 注册
     * @param username 用户名
     * @param password 密码
     * @param Path 存储路径
     * @return true:注册成功;false:注册失败
     * @throws IOException
     */
    public Boolean register(String username,String password, String Path) throws IOException {
   
        ObjectMapper mapper = new ObjectMapper();//用于解析JSON格式的文件
        File file = new File(Path);
        HashMap<String,String> order;
        try {
   
            order = mapper.readValue(file,HashMap.class);//把Json转换成map
        }catch (Exception e) {
   
            order = new HashMap<>();
        }
        //用户名存在,注册失败
        if(order.containsKey(username)) {
   
            return 
HDFS是Hadoop分布式文件系统,它提供了Java API来进行文件读写操作。在HDFS中,文件被分成多个块并存储在不同的节点上,因此需要使用分布式文件系统API来进行文件读写操作。 HDFS Java API提供了以下几个类来进行文件读写操作: 1. FileSystem:表示一个文件系统对象,可以通过它来获取文件系统的配置信息、创建文件、删除文件等操作。 2. Path:表示一个文件或目录的路径。 3. FSDataInputStream:表示一个输入流,可以用来读取HDFS中的文件。 4. FSDataOutputStream:表示一个输出流,可以用来向HDFS中写入数据。 下面是一个简单的示例代码,演示如何使用HDFS Java API进行文件读写操作: ```java import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.apache.hadoop.fs.FSDataInputStream; import org.apache.hadoop.fs.FSDataOutputStream; public class HdfsExample { public static void main(String[] args) throws Exception { // 创建一个Configuration对象,用于获取Hadoop配置信息 Configuration conf = new Configuration(); // 获取HDFS文件系统对象 FileSystem fs = FileSystem.get(conf); // 创建一个Path对象,表示要读取的文件路径 Path inputPath = new Path("/input/test.txt"); // 创建一个FSDataInputStream对象,用于读取文件 FSDataInputStream in = fs.open(inputPath); // 读取文件内容 byte[] buffer = new byte[1024]; int len = in.read(buffer); while (len > 0) { System.out.write(buffer, 0, len); len = in.read(buffer); } // 关闭输入流 in.close(); // 创建一个Path对象,表示要写入的文件路径 Path outputPath = new Path("/output/test.txt"); // 创建一个FSDataOutputStream对象,用于写入文件 FSDataOutputStream out = fs.create(outputPath); // 写入文件内容 String content = "Hello, HDFS!"; out.write(content.getBytes()); // 关闭输出流 out.close(); } } ```
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值