spring boot +hadoop做文件上传

最近需要spark进行文件处理,需要提交数据到spark上就想着通过http 把文件上传到hdfs上,在进行数据计算

public class HDFSCommon {
    static public void copyfileToHdfs(Configuration config, String url, File file)
    {
        try {
            FileSystem fs = FileSystem.get(URI.create(url), config);
            Path src = new Path(file.getPath());
            // 要上传到hdfs的目标路径
            Path dst = new Path(url+"/test");
            fs.copyFromLocalFile(src, dst);
        }
        catch(Exception e)
        {
            e.printStackTrace();
        }
    }
}
public class CommonUtil {
    public static void inputStreamToFile(InputStream ins,File file) {
        try {
            OutputStream os = new FileOutputStream(file);
            int bytesRead = 0;
            byte[] buffer = new byte[8192];
            while ((bytesRead = ins.read(buffer, 0, 8192)) != -1) {
                os.write(buffer, 0, bytesRead);
            }
            os.close();
            ins.close();
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
    static public File MultipartFileToFile(MultipartFile file)
    {
        File f = null;
        try {

            if (file.equals("") || file.getSize() <= 0) {
                file = null;
            } else {
                InputStream ins = file.getInputStream();
                f = new File(file.getOriginalFilename());
                inputStreamToFile(ins, f);
            }
            return f;
        }
        catch(Exception e)
        {
            e.printStackTrace();
            return f;
        }
    }
}
@Controller
@CrossOrigin
public class FileController {
    @PostMapping("OneController/getFileToHDFS")
    @ApiOperation("通过id获取某个地址信息")
    public void getFileToHDFS(@RequestParam("file") MultipartFile file){
        try {
            if (file != null) {
                File hh = CommonUtil.MultipartFileToFile(file);
                HDFSCommon.copyfileToHdfs(new Configuration(),"hdfs://10.0.0.194:9000",hh);
            }
        }
        catch(Exception io)
        {
            io.printStackTrace();
        }
    }
}
概述: Sping Boot + Hadoop 网盘系统是一种基于Spring Boot框架和Hadoop技术的云存储系统。它提供了用户注册、登录、文件上传、下载和管理等功能,使用户能够方便地存储、共享和管理自己的文件。 该网盘系统的设计和实现主要包括以下几个方面: 1. 用户认证和授权:用户可以通过注册和登录功能进行身份认证,获得访问和管理文件的权限。 2. 文件上传和下载:用户可以上传自己的文件到网盘系统,并能够下载已上传的文件到本地设备。 3. 文件管理和共享:用户可以对上传的文件进行管理,包括文件重命名、移动、删除等操作。同时,用户还可以通过生成分享链接将文件分享给其他用户。 4. 分布式存储和管理:利用Hadoop分布式文件系统(HDFS),实现文件的分布式存储和管理,提供高可靠性、可扩展性和容错性。 5. 数据安全和隐私保护:通过合适的安全措施,保护用户数据的安全性和隐私,例如使用加密算法对文件进行加密存储、访问控制机制等。 该网盘系统的开发利用了Spring Boot框架的优势,简化了系统的搭建和开发过程,同时结合Hadoop技术,实现了分布式文件存储和管理。通过使用这些技术,网盘系统能够满足用户对于高效、可靠、安全的文件存储和管理的需求。 总之,Sping Boot + Hadoop 网盘系统是一个功能丰富的云存储系统,具有良好的用户体验和可靠的文件存储能力。它为用户提供了方便的文件管理和共享功能,并通过分布式存储技术保证了系统的可靠性和扩展性。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值