SpringBoot大文件上传解决方案

前言

文件上传是一个老生常谈的话题了,在文件相对比较小的情况下,可以直接把文件转化为字节流上传到服务器,但在文件比较大的情况下,用普通的方式进行上传,这可不是一个好的办法,毕竟很少有人会忍受,当文件上传到一半中断后,继续上传却只能重头开始上传,这种让人不爽的体验。那有没有比较好的上传体验呢,答案有的,就是下边要介绍的几种上传方式

详细教程

秒传

1、什么是秒传
通俗的说,你把要上传的东西上传,服务器会先做MD5校验,如果服务器上有一样的东西,它就直接给你个新地址,其实你下载的都是服务器上的同一个文件,想要不秒传,其实只要让MD5改变,就是对文件本身做一下修改(改名字不行),例如一个文本文件,你多加几个字,MD5就变了,就不会秒传了.

2、本文实现的秒传核心逻辑

  • a、利用redis的set方法存放文件上传状态,其中key为文件上传的md5,value为是否上传完成的标志位,

  • b、当标志位true为上传已经完成,此时如果有相同文件上传,则进入秒传逻辑。如果标志位为false,则说明还没上传完成,此时需要在调用set的方法,保存块号文件记录的路径,其中key为上传文件md5加一个固定前缀,value为块号文件记录路径

分片上传

1.什么是分片上传
分片上传,就是将所要上传的文件,按照一定的大小,将整个文件分隔成多个数据块(我们称之为Part)来进行分别上传,上传完之后再由服务端对所有上传的文件进行汇总整合成原始的文件。

2.分片上传的场景

  • 1.大文件上传

  • 2.网络环境环境不好,存在需要重传风险的场景

断点续传

1、什么是断点续传
断点续传是在下载或上传时,将下载或上传任务(一个文件或一个压缩包)人为的划分为几个部分,每一个部分采用一个线程进行上传或下载,如果碰到网络故障,可以从已经上传或下载的部分开始继续上传或者下载未完成的部分,而没有必要从头开始上传或者下载。本文的断点续传主要是针对断点上传场景。

2、应用场景
断点续传可以看成是分片上传的一个衍生,因此可以使用分片上传的场景,都可以使用断点续传。

3、实现断点续传的核心逻辑
在分片上传的过程中,如果因为系统崩溃或者网络中断等异常因素导致上传中断,这时候客户端需要记录上传的进度。在之后支持再次上传时,可以继续从上次上传中断的地方进行继续上传。

为了避免客户端在上传之后的进度数据被删除而导致重新开始从头上传的问题,服务端也可以提供相应的接口便于客户端对已经上传的分片数据进行查询,从而使客户端知道已经上传的分片数据,从而从下一个分片数据开始继续上传。

4、实现流程步骤

  • a、方案一,常规步骤
    将需要上传的文件按照一定的分割规则,分割成相同大小的数据块;
    初始化一个分片上传任务,返回本次分片上传唯一标识;
    按照一定的策略(串行或并行)发送各个分片数据块;
    发送完成后,服务端根据判断数据上传是否完整,如果完整,则进行数据块合成得到原始文件。

  • b、方案二、本文实现的步骤
    前端(客户端)需要根据固定大小对文件进行分片,请求后端(服务端)时要带上分片序号和大小
    服务端创建conf文件用来记录分块位置,conf文件长度为总分片数,每上传一个分块即向conf文件中写入一个127,那么没上传的位置就是默认的0,已上传的就是Byte.MAX_VALUE 127(这步是实现断点续传和秒传的核心步骤)
    服务器按照请求数据中给的分片序号和每片分块大小(分片大小是固定且一样的)算出开始位置,与读取到的文件片段数据,写入文件。

5、分片上传/断点上传代码实现

后端进行写入操作的核心代码

  • a、RandomAccessFile实现方式

@UploadMode(mode = UploadModeEnum.RANDOM_ACCESS)  @Slf4j  public class RandomAccessUploadStrategy extends SliceUploadTemplate {  
  
  @Autowired  
  private FilePathUtil filePathUtil;  
  
  @Value("${upload.chunkSize}")  
  private long defaultChunkSize;  
  
  @Override  
  public boolean upload(FileUploadRequestDTO param) {  
    RandomAccessFile accessTmpFile = null;  
    try {  
      String uploadDirPath = filePathUtil.getPath(param);  
      File tmpFile = super.createTmpFile(param);  
      accessTmpFile = new RandomAccessFile(tmpFile, "rw");  
      //这个必须与前端设定的值一致  
      long chunkSize = Objects.isNull(param.getChunkSize()) ? defaultChunkSize * 1024 * 1024  
          : param.getChunkSize();  
      long offset = chunkSize * param.getChunk();  
      //定位到该分片的偏移量  
      accessTmpFile.seek(offset);  
      //写入该分片数据  
      accessTmpFile.write(param.getFile().getBytes());  
      boolean isOk = super.checkAndSetUploadProgress(param, uploadDirPath);  
      return isOk;  
    } catch (IOException e) {  
      log.error(e.getMessage(), e);  
    } finally {  
      FileUtil.close(accessTmpFile);  
    }  
   return false;  
  }  
  }
  • b、MappedByteBuffer实现方式

@UploadMode(mode = UploadModeEnum.MAPPED_BYTEBUFFER)  @Slf4j  public class MappedByteBufferUploadStrategy extends SliceUploadTemplate {  
  
  @Autowired  
  private FilePathUtil filePathUtil;  
  
  @Value("${upload.chunkSize}")  
  private long defaultChunkSize;  
  
  @Override  
  public boolean upload(FileUploadRequestDTO param) {  
  
    RandomAccessFile tempRaf = null;  
    FileChannel fileChannel = null;  
    MappedByteBuffer mappedByteBuffer = null;  
    try {  
      String uploadDirPath = filePathUtil.getPath(param);  
      File tmpFile = super.createTmpFile(param);  
      tempRaf = new RandomAccessFile(tmpFile, "rw");  
      fileChannel = tempRaf.getChannel();  
  
      long chunkSize = Objects.isNull(param.getChunkSize()) ? defaultChunkSize * 1024 * 1024  
          : param.getChunkSize();  
      //写入该分片数据  
      long offset = chunkSize * param.getChunk();  
      byte[] fileData = param.getFile().getBytes();  
      mappedByteBuffer = fileChannel  
.map(FileChannel.MapMode.READ_WRITE, offset, fileData.length);  
      mappedByteBuffer.put(fileData);  
      boolean isOk = super.checkAndSetUploadProgress(param, uploadDirPath);  
      return isOk;  
  
    } catch (IOException e) {  
      log.error(e.getMessage(), e);  
    } finally {  
  
      FileUtil.freedMappedByteBuffer(mappedByteBuffer);  
      FileUtil.close(fileChannel);  
      FileUtil.close(tempRaf);  
  
    }  
  
    return false;  
  }  
  }
  • c、文件操作核心模板类代码

@Slf4j  public abstract class SliceUploadTemplate implements SliceUploadStrategy {  
  
  public abstract boolean upload(FileUploadRequestDTO param);  
  
  protected File createTmpFile(FileUploadRequestDTO param) {  
  
    FilePathUtil filePathUtil = SpringContextHolder.getBean(FilePathUtil.class);  
    param.setPath(FileUtil.withoutHeadAndTailDiagonal(param.getPath()));  
    String fileName = param.getFile().getOriginalFilename();  
    String uploadDirPath = filePathUtil.getPath(param);  
    String tempFileName = fileName + "_tmp";  
    File tmpDir = new File(uploadDirPath);  
    File tmpFile = new File(uploadDirPath, tempFileName);  
    if (!tmpDir.exists()) {  
      tmpDir.mkdirs();  
    }  
    return tmpFile;  
  }  
  
  @Override  
  public FileUploadDTO sliceUpload(FileUploadRequestDTO param) {  
  
    boolean isOk = this.upload(param);  
    if (isOk) {  
      File tmpFile = this.createTmpFile(param);  
      FileUploadDTO fileUploadDTO = this.saveAndFileUploadDTO(param.getFile().getOriginalFilename(), tmpFile);  
      return fileUploadDTO;  
    }  
    String md5 = FileMD5Util.getFileMD5(param.getFile());  
  
    Map<Integer, String> map = new HashMap<>();  
    map.put(param.getChunk(), md5);  
    return FileUploadDTO.builder().chunkMd5Info(map).build();  
  }  
  
  /**  
   * 检查并修改文件上传进度  
   */  
  public boolean checkAndSetUploadProgress(FileUploadRequestDTO param, String uploadDirPath) {  
  
    String fileName = param.getFile().getOriginalFilename();  
    File confFile = new File(uploadDirPath, fileName + ".conf");  
    byte isComplete = 0;  
    RandomAccessFile accessConfFile = null;  
    try {  
      accessConfFile = new RandomAccessFile(confFile, "rw");  
      //把该分段标记为 true 表示完成  
      System.out.println("set part " + param.getChunk() + " complete");  
      //创建conf文件文件长度为总分片数,每上传一个分块即向conf文件中写入一个127,那么没上传的位置就是默认0,已上传的就是Byte.MAX_VALUE 127  
      accessConfFile.setLength(param.getChunks());  
      accessConfFile.seek(param.getChunk());  
      accessConfFile.write(Byte.MAX_VALUE);  
  
      //completeList 检查是否全部完成,如果数组里是否全部都是127(全部分片都成功上传)  
      byte[] completeList = FileUtils.readFileToByteArray(confFile);  
      isComplete = Byte.MAX_VALUE;  
      for (int i = 0; i < completeList.length && isComplete == Byte.MAX_VALUE; i++) {  
        //与运算, 如果有部分没有完成则 isComplete 不是 Byte.MAX_VALUE  
        isComplete = (byte) (isComplete & completeList[i]);  
        System.out.println("check part " + i + " complete?:" + completeList[i]);  
      }  
  
    } catch (IOException e) {  
      log.error(e.getMessage(), e);  
    } finally {  
      FileUtil.close(accessConfFile);  
    }  
 boolean isOk = setUploadProgress2Redis(param, uploadDirPath, fileName, confFile, isComplete);  
    return isOk;  
  }  
  
  /**  
   * 把上传进度信息存进redis  
   */  
  private boolean setUploadProgress2Redis(FileUploadRequestDTO param, String uploadDirPath,  
      String fileName, File confFile, byte isComplete) {  
  
    RedisUtil redisUtil = SpringContextHolder.getBean(RedisUtil.class);  
    if (isComplete == Byte.MAX_VALUE) {  
      redisUtil.hset(FileConstant.FILE_UPLOAD_STATUS, param.getMd5(), "true");  
      redisUtil.del(FileConstant.FILE_MD5_KEY + param.getMd5());  
      confFile.delete();  
      return true;  
    } else {  
      if (!redisUtil.hHasKey(FileConstant.FILE_UPLOAD_STATUS, param.getMd5())) {  
        redisUtil.hset(FileConstant.FILE_UPLOAD_STATUS, param.getMd5(), "false");  
        redisUtil.set(FileConstant.FILE_MD5_KEY + param.getMd5(),  
            uploadDirPath + FileConstant.FILE_SEPARATORCHAR + fileName + ".conf");  
      }  
  
      return false;  
    }  
  }  /**  
   * 保存文件操作  
   */  
  public FileUploadDTO saveAndFileUploadDTO(String fileName, File tmpFile) {  
  
    FileUploadDTO fileUploadDTO = null;  
  
    try {  
  
      fileUploadDTO = renameFile(tmpFile, fileName);  
      if (fileUploadDTO.isUploadComplete()) {  
        System.out  
            .println("upload complete !!" + fileUploadDTO.isUploadComplete() + " name=" + fileName);  
        //TODO 保存文件信息到数据库  
  
      }  
  
    } catch (Exception e) {  
      log.error(e.getMessage(), e);  
    } finally {  
  
    }  
    return fileUploadDTO;  
  }  /**  
   * 文件重命名  
   *  
   * @param toBeRenamed 将要修改名字的文件  
   * @param toFileNewName 新的名字  
   */  
  private FileUploadDTO renameFile(File toBeRenamed, String toFileNewName) {  
    //检查要重命名的文件是否存在,是否是文件  
    FileUploadDTO fileUploadDTO = new FileUploadDTO();  
    if (!toBeRenamed.exists() || toBeRenamed.isDirectory()) {  
      log.info("File does not exist: {}", toBeRenamed.getName());  
      fileUploadDTO.setUploadComplete(false);  
      return fileUploadDTO;  
    }  
    String ext = FileUtil.getExtension(toFileNewName);  
    String p = toBeRenamed.getParent();  
    String filePath = p + FileConstant.FILE_SEPARATORCHAR + toFileNewName;  
    File newFile = new File(filePath);  
    //修改文件名  
    boolean uploadFlag = toBeRenamed.renameTo(newFile);  
  
    fileUploadDTO.setMtime(DateUtil.getCurrentTimeStamp());  
    fileUploadDTO.setUploadComplete(uploadFlag);  
    fileUploadDTO.setPath(filePath);  
    fileUploadDTO.setSize(newFile.length());  
    fileUploadDTO.setFileExt(ext);  
    fileUploadDTO.setFileId(toFileNewName);  
  
    return fileUploadDTO;  
  }  }

总结

在实现分片上传的过程,需要前端和后端配合,比如前后端的上传块号的文件大小,前后端必须得要一致,否则上传就会有问题。其次文件相关操作正常都是要搭建一个文件服务器的,比如使用fastdfs、hdfs等。

本示例代码在电脑配置为4核内存8G情况下,上传24G大小的文件,上传时间需要30多分钟,主要时间耗费在前端的md5值计算,后端写入的速度还是比较快。如果项目组觉得自建文件服务器太花费时间,且项目的需求仅仅只是上传下载,那么推荐使用阿里的oss服务器,其介绍可以查看官网:

https://help.aliyun.com/product/31815.html

阿里的oss它本质是一个对象存储服务器,而非文件服务器,因此如果有涉及到大量删除或者修改文件的需求,oss可能就不是一个好的选择。

效果展示:

这是文件块上传的效果

这是文件夹上传完后的效果

视频演示:

Web大文件上传下载断点续传-asp.net-IIS Express-SQL Server-测试教程

控件源码下载:

asp.net源码下载jsp-springboot源码下载jsp-eclipse源码下载jsp-myeclipse源码下载php源码下载csharp-winform源码下载vue-cli源码下载c++源码下载

详细配置信息及思路

 

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spring Boot和Vue.js都提供了大文件上传解决方案。以下是一些可能有用的信息: 1. Spring Boot文件上传 Spring Boot提供了一个名为MultipartResolver的接口,用于处理文件上传。您可以使用Spring Boot的默认实现CommonsMultipartResolver,也可以使用其他实现,例如Servlet 3.0的MultipartConfigElement。 以下是一个使用CommonsMultipartResolver的示例: ```java @PostMapping("/upload") public String handleFileUpload(@RequestParam("file") MultipartFile file) { // 处理上传的文件 return "redirect:/"; } ``` 2. Vue.js的文件上传 Vue.js提供了一个名为vue-file-upload的组件,用于处理文件上传。您可以使用该组件,也可以使用其他组件,例如vue-dropzone。 以下是一个使用vue-file-upload的示例: ```html <template> <div> <vue-file-upload ref="fileUpload" :url="uploadUrl" :headers="headers" :multiple="false" :max-size="maxSize" @input="onInput" @before-upload="onBeforeUpload" @upload-progress="onUploadProgress" @upload-success="onUploadSuccess" @upload-error="onUploadError" > <button>选择文件</button> </vue-file-upload> </div> </template> <script> import VueFileUpload from 'vue-file-upload' export default { components: { VueFileUpload }, data () { return { uploadUrl: '/upload', headers: { 'Authorization': 'Bearer ' + localStorage.getItem('token') }, maxSize: 10 * 1024 * 1024 // 10MB } }, methods: { onInput (files) { console.log('input', files) }, onBeforeUpload (file) { console.log('before-upload', file) }, onUploadProgress (event, file, progress) { console.log('upload-progress', event, file, progress) }, onUploadSuccess (response, file) { console.log('upload-success', response, file) }, onUploadError (error, file) { console.log('upload-error', error, file) } } } </script> ``` 以上是一些可能有用的信息,希望能对您有所帮助。 ### 回答2: 概述 SpringBoot 是一款非常流行的 Java web 框架,Vue.js 是一款强大的前端框架,它们的联合使用可以帮助我们快速搭建一个高效的 Web 应用程序。 大文件上传是在实际应用中常常遇到的问题,通常我们会使用 resumable.js,Axios,jQuery File Upload 等工具来解决这个问题。本文将介绍如何使用这些工具来实现 SpringBoot Vue 大文件上传。 前端 前端使用 Vue.js 并通过 Axios 发起上传请求。为了在上传过程中更好地掌控进度,我们使用了 resumable.js。 安装 resumable.js resumable.js 提供了一个易用的接口,帮助我们来管理文件上传。我们可以通过 npm 或 yarn 来安装它: ``` npm install resumablejs ``` ``` yarn add resumablejs ``` 初始化 resumable.js 在组件中,我们可以这样来初始化 resumable.js: ```javascript import Resumable from 'resumablejs' export default { data() { return { resumable: null, serverUrl: '/upload', file: null } }, created() { const options = { target: this.serverUrl, testChunks: false, maxChunkRetries: 10, maxFiles: 1, chunkSize: 1024 * 1024, simultaneousUploads: 1, headers: { 'X-CSRF-TOKEN': document.getElementsByName('csrf-token')[0].content, Authorization: `Bearer ${localStorage.getItem('token')}`, }, } this.resumable = new Resumable(options) this.resumable.assignBrowse(this.$refs.fileBtn.$el) this.resumable.on('fileAdded', (file, event) => { // 文件添加成功 this.file = file }) this.resumable.on('progress', () => { // 上传进度更新 }) this.resumable.on('complete', (res) => { // 上传完成 console.log(res) }) this.resumable.on('fileError', (file, message) => { // 上传异常处理 }) }, methods: { upload() { this.resumable.upload() } } } ``` 在上面的代码中,我们初始化了一个 resumable.js 实例,并通过其中的 assignBrowse 方法来绑定了文件选择按钮的事件,当选择文件之后,fileAdded 事件会被触发,我们可以在该事件中处理文件相关信息。它还提供了 progress,complete,fileError 等事件,在上传过程中会被不断触发,因此可以很好地管理上传过程。 后端 后端我们使用了 SpringBoot 并通过 SpringMVC 来实现文件上传功能。在实现文件上传之前,我们需要做一些准备工作。 在 pom.xml 中添加以下依赖: ```xml <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId> </dependency> <dependency> <groupId>commons-fileupload</groupId> <artifactId>commons-fileupload</artifactId> <version>1.3.3</version> </dependency> <dependency> <groupId>commons-io</groupId> <artifactId>commons-io</artifactId> <version>2.6</version> </dependency> ``` 在 application.properties 文件中添加以下配置: ```properties # 文件上传配置 spring.servlet.multipart.max-file-size=10MB spring.servlet.multipart.max-request-size=100MB ``` 其中,max-file-size 表示上传文件的最大值,max-request-size 表示整个请求的最大值,它们的单位默认是字节。 编写文件上传接口 在 SpringMVC 中,文件上传可以使用 MultipartFile 类来实现。我们在控制器中编写如下代码来实现文件上传: ```java @RestController public class FileUploadController { private static final String UPLOAD_DIR = "/upload"; @PostMapping(value = "/upload") public ResponseEntity<?> uploadFile(@RequestParam("file") MultipartFile file) throws Exception { try { Files.copy(file.getInputStream(), Paths.get(UPLOAD_DIR).resolve(file.getOriginalFilename())); return ResponseEntity.ok().build(); } catch (Exception e) { return ResponseEntity.status(HttpStatus.INTERNAL_SERVER_ERROR).body(null); } } } ``` 运行 我们使用下面的命令来启动 SpringBoot 项目: ``` mvn spring-boot:run ``` 然后在浏览器里面打开我们的前端页面即可开始上传。 总结 以上就是如何在 SpringBoot 和 Vue.js 中实现大文件上传的具体说明。如今,大文件上传已经成为 Web 开发中的一个非常普遍的需求,掌握这个技能可以帮助我们更好地开发出高效的 Web 应用程序。 ### 回答3: SpringBoot是一个非常流行的Java框架,而Vue则是一款现代化的JavaScript框架。在实际开发中,我们可能需要实现大文件上传的功能,这时我们一般会采用以下方式: 1. 前端选择文件后,将文件分块并通过Ajax异步传输。我们可以借助Vue的丰富组件库如Element UI来实现。 2. 后端接收前端传过来的文件块,将块存储到Redis或者MongoDB中,以防止文件丢失或上传失败时进行数据恢复。 3. 后端接收到所有文件块后,将文件块合并起来,并将文件存储到指定的文件夹中。我们可以使用SpringBoot的MultipartFile类来处理文件的上传与合并。 在上传大文件的过程中,常见的问题是上传时间太长或上传失败。为了优化这些问题,我们可以使用以下方式: 1. 给前端上传进度条,提示用户文件上传进度。 2. 引入多线程上传,允许同时上传多个文件块,加速上传速度。 3. 限制上传文件的大小,以避免上传过大的文件导致服务器崩溃。 综上所述,实现SpringBoot Vue大文件上传可以参照以上步骤,需要注意文件分块、上传进度、上传速度、上传大小等问题,将前后端进行协作并进行适当的优化。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值