大文件分片上传原理分析

想简单来可以直接用 vue-simple-upload(断点续传,重传,多文件上传,错误处理等)功能齐全,本文意在梳理大文件上传原理

大致思路就是—上传文件----把文件切片----把单文件传输给后端-----后端组合切片为完整文件。
注:这里的切片(blob类型只保存文件基本信息)不是读取后的字节文件,获取切片只是简单的数学算法,所以计算切片的速度会比较快

分片上传解决的问题

大文件上传时,网络断开整个文件需要重新上传,用户等待时间过长,体验感差

获取文件的所有切片

// chunkSize 切片大小
function createChunks(file, chunkSize) {
    const result = [];
    // i += chunkSize 每取完一个增加一个切片的长度
    for (let i = 0; i < file.size; i += chunkSize) {
        result.push(file.slice(i, i + chunkSize));
    }
    return result;//返回所有数组切片
}

const inp = document.querySelector('input');
inp.onchange = (e) => {
    const file = inp.files[0];
    if (!file) {
        return;
    }
    console.log(file.slice(0, 100));// 取0-99字节 返回blob类型
    const chunks = createChunks(file, 1 * 1024 * 1024);// 1M
    console.log(chunks);
};

问题思考,当网络断开,如何接着之前传的片段继续传
解决:前端需要定义文件有唯一hash ID。这里可以约定,比如前端可以用spark-md5。浏览器发起请求询问服务器,这个大文件hash ID我还需要传递哪些分片, 后端可以根据ID判断这个文件有没有上传过,还有多少需要上传

下载spark-md5并引用

这里要注意我们在对文件进行加密的时候不要直接用整个文件,因为计算hash值需要拿到文件数据,把整个大文件放进内存计算hash值执行很慢,也会引起崩溃(100G之类),需要在截取以后取出分片进行加密

<body>
<input type="file"/>
<script src="spark-md5.js"></script>
<script>
function createChunks(file, chunkSize) {
	.....
}
//获取整个文件hash
function hashID(chunks){
const spark = new SparkMD5()
function _read(i){
	if(i >= chunks.length){//大于分片长度时结束计算
		console.log(spark.end());
		return;
	 }
	 const blob = chunks[i];
	 const fileReader = new FileReader();// 文件读取类
	 //读取是异步的
	 fileReader.onload = e => {
	     const bytes = e.target.result // 返回要加密的片段
	     spark.append(bytes)//把字节加入hash运算
	     _read(i+1);
    }
     fileReader.readAsArrayBuffer(blob)   
	}
	_read(0)
}
const inp = document.querySelector('input');
inp.onchange = (e) => {
    const file = inp.files[0];
    if (!file) {
        return;
    }
    console.log(file.slice(0, 100));// 取0-99字节 返回blob类型
    const chunks = createChunks(file, 1 * 1024 * 1024);// 1M
    hashID(chunks);//传入分片
};
</script>
</body>

思考,文件读取是异步的,所以需要用promise封装一下hashID的生成

<body>
<input type="file"/>
<script src="spark-md5.js"></script>
<script>
/**
获取一个分片
*/
function createChunks(file, chunkSize) {
	const result = [];
    // i += chunkSize 每取完一个增加一个切片的长度
    for (let i = 0; i < file.size; i += chunkSize) {
        result.push(file.slice(i, i + chunkSize));
    }
    return result;//返回所有数组切片
}
//获取整个文件hash
function hashID(chunks){
return new Promise(resolve=>{
	const spark = new SparkMD5()
	function _read(i){
	if(i >= chunks.length){//大于分片长度时结束计算
		resolve(spark.end());//返回promise
		return;
	 }
	 const blob = chunks[i];
	 const fileReader = new FileReader();// 文件读取类
	 //读取是异步的
	 fileReader.onload = e => {
	     const bytes = e.target.result // 返回要加密的片段
	     spark.append(bytes)//把字节加入hash运算
	     _read(i+1);
    }
     fileReader.readAsArrayBuffer(blob)   
	}
	_read(0)
})
}
const inp = document.querySelector('input');
inp.onchange = async (e) => {
    const file = inp.files[0];
    if (!file) {
        return;
    }
    console.log(file.slice(0, 100));// 取0-99字节 返回blob类型
    const chunks = createChunks(file, 1 * 1024 * 1024);// 1M
    //文件hash
    const resultID = await hashID(chunks);
};
</script>
</body>

延伸:如果分片也很大,就要用到web worker单独开一个线程计算了

  • 3
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值