【JS】前端分片上传大文件(支持1G以上的超大文件)

这篇具有很好参考价值的文章主要介绍了【JS】前端分片上传大文件(支持1G以上的超大文件)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

什么时候需要分片上传?

       如果将大文件一次性上传,耗时会非常长,甚至可能传输失败,那么我们怎么解决这个问题呢?既然大文件上传不适合一次性上传,那么我们可以尝试将文件分片散上传。
这样的技术就叫做分片上传。分片上传就是将大文件分成一个个小文件(切片),将切片进行上传,等到后端接收到所有切片,再将切片合并成大文件。通过将大文件拆分成多个小文件进行上传,确实就是解决了大文件上传的问题。因为请求时可以并发执行的,这样的话每个请求时间就会缩短,如果某个请求发送失败,也不需要全部重新发送。

分片上传流程

获取文件专属MD5码

import sparkMD5 from 'spark-md5' // 安装下spark-md5包
// 定义hash函数,接受一个名为chunks的数组作为参数
hash = (chunks) => {
  // 返回一个Promise,这样调用者可以使用.then()或async/await来处理结果
  return new Promise((resolve) => {
    // 创建一个新的sparkMD5实例,用于计算MD5哈希值
    const spark = new sparkMD5();

    // 定义一个递归函数_read,用于逐个处理chunks数组中的blob
    function _read(i) {
      // 如果索引i大于等于chunks数组的长度,说明所有blob都已经处理完毕
      if (i >= chunks.length) {
        // 调用sparkMD5实例的end方法,并传入resolve回调,以返回最终的哈希值
        resolve(spark.end());
        return; // 读取完成,退出函数
      }

      // 获取当前索引i对应的blob
      const blob = chunks[i];

      // 创建一个新的FileReader实例,用于读取blob的内容
      const reader = new FileReader();

      // 设置FileReader的onload事件处理函数,当blob内容读取完成后调用
      reader.onload = e => {
        // 从事件对象e中获取读取到的字节数组
        const bytes = e.target.result;

        // 将字节数组添加到sparkMD5实例中,用于计算哈希值
        spark.append(bytes);

        // 递归调用_read函数,处理下一个blob
        _read(i + 1);
      };

      // 以ArrayBuffer格式异步读取当前blob的内容
      reader.readAsArrayBuffer(blob); // 这里是读取操作开始的地方
    }

    // 从索引0开始,调用_read函数,处理chunks数组中的第一个blob
    _read(0);
  });
};

解析:
       在这个函数中,_read 函数是一个递归函数,它会逐个处理 chunks 数组中的每个 blob。对于每个 blob,它使用 FileReader 的 readAsArrayBuffer 方法异步读取内容,并在内容读取完成后通过 onload 事件处理函数将读取到的字节数组添加到 sparkMD5 实例中。当所有 blob 都处理完毕后,sparkMD5 实例的 end 方法被调用,并返回最终的哈希值,这个值随后通过Promise的 resolve 方法传递给调用者。

       在这个函数中,当用户选择一个文件后,readAsArrayBuffer开始异步读取文件内容。一旦文件内容被读取并转换为ArrayBuffer,onload事件处理程序就会被调用,你可以在这个事件处理程序中访问到ArrayBuffer对象,并对其进行处理。ArrayBuffer对象代表原始的二进制数据

接口1:传MD5码获取该文件已上传的片数

调用上面的方法hash()

const md5Str = await this.hash(chunksList);
/* 这里写发送md5Str【接口1】 的方法,获取已上传片数 */

接口2:将文件分片成promise请求数组

1.文件分片

chunkFile = (file, chunksize) => {  
    const chunks = Math.ceil(file.size / chunksize);  
    const chunksList = [];  
    let currentChunk = 0;  
    while (currentChunk < chunks) {  
        const start = currentChunk * chunksize;  
        const end = Math.min(file.size, start + chunksize);  
        const chunk = file.slice(start, end);  
        chunksList.push(chunk);  
        currentChunk++;  
    }  
    return chunksList;  
};

2.封装成promise请求

chunkPromise = data => { //每个分片的请求
	return new Promise((resolve, reject) => { 
		/* 这里写上传的 【接口2】,传data过去*/
	}).catch(err => {
		message.error(err.msg);
		reject();
	})
}
	 const promiseList = []
	 const chunkList = chunkFile(file, size)
	 chunkList.map(item => {
	 const formData = new FormData();
	 formData.append('file', item)
	 // limit是线程池组件 后面会写
	 promiseList.push(limit(() => this.chunkPromise(formData, chunks)))
})


  

promise请求数组做线程池限制处理 p-limit

p-limit npm 包是一个实用工具,它允许你限制同时运行的 Promise 数量。当你拥有可以在并行中运行的操作,但由于资源限制想要限制这些操作的数量时,这个工具就很有用,有助于控制并发性。
p-limit npm地址
官方案例:

const pLimit = require('p-limit');
const limit = pLimit(2);

const input = [
  limit(() => fetchSomething('foo')),
  limit(() => fetchSomething('bar')),
  limit(() => doSomethingElse()),
];

// Only two promises will run at once, the rest will be queued
Promise.all(input).then(results => {
  console.log(results);
});

接口3:promise.all执行结束后,请求一个是否合并成功的接口

	Promise.all(promiseList).then(res =>{
		// 这里写接口3 问后端是否合并成功了
	}).catch(err => {
		message.error(err.msg);
	})

完整主函数

分片大小建议不超过最大不超过5M

const md5Str = await this.hash(chunksList);
/* 这里写发送md5Str【接口1】 的方法,获取已上传片数 */
const promiseList = []
const chunkList = this.chunkFile(file, size)
chunkList.map(item => {
	const formData = new FormData();
	formData.append('file', item)
	promiseList.push(limit(() => this.chunkPromise(formData, chunks))) // 【接口2 在this.chunkPromise里】
}
Promise.all(promiseList).then(res =>{
		// 这里写【接口3】 问后端是否合并成功了
	}).catch(err => {
		message.error(err.msg);
	})

待优化的地方: 使用Web Workers进行分片上传

Web Workers在后台线程中运行,它们不会阻塞主线程,这意味着主线程可以继续响应用户的操作,如界面渲染和交互。在分片上传过程中,每个文件块可以在单独的Worker中处理,从而实现并行处理,大大提高了上传速度。同时,由于Worker不会与主线程共享内存,因此可以避免内存竞争和阻塞,进一步提升了性能。
【感兴趣的读者可以尝试一下】文章来源地址https://www.toymoban.com/news/detail-848144.html

到了这里,关于【JS】前端分片上传大文件(支持1G以上的超大文件)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • FPGA基于AXI 1G/2.5G Ethernet Subsystem实现千兆UDP通信 提供工程源码和技术支持

    目前网上的fpga实现udp基本生态如下: 1:verilog编写的udp收发器,但不带ping功能,这样的代码功能正常也能用,但不带ping功能基本就是废物,在实际项目中不会用这样的代码,试想,多机互联,出现了问题,你的网卡都不带ping功能,连基本的问题排查机制都不具备,这样的代

    2024年02月09日
    浏览(31)
  • FPGA基于AXI 1G/2.5G Ethernet Subsystem实现UDP通信DMA传输 提供工程源码和技术支持

    目前网上的fpga实现udp基本生态如下: 1:verilog编写的udp收发器,但不带ping功能,这样的代码功能正常也能用,但不带ping功能基本就是废物,在实际项目中不会用这样的代码,试想,多机互联,出现了问题,你的网卡都不带ping功能,连基本的问题排查机制都不具备,这样的代

    2024年02月10日
    浏览(32)
  • 老大加需求:做一个支持超大文件 HTTP 断点续传的上传服务,我懵逼了~

    作者: 大飞飞鱼 来源: blog.csdn.net/ababab12345/article/details/80490621 最近由于笔者所在的研发集团产品需要,需要支持高性能的大文件(大都数是4GB以上)的http上传,并且要求支持http断点续传。笔者在以前的博客如何实现支持大文件的高性能HTTP文件上传服务器已经介绍了实现大文

    2024年02月08日
    浏览(34)
  • 前端文件上传(文件上传,分片上传,断点续传)

    普通文件上传 思路: 首先获取用户选择的文件对象,并将其添加到一个 FormData 对象中。然后,使用 axios 的 post 方法将 FormData 对象发送到服务器。在 then 和 catch 中,我们分别处理上传成功和失败的情况,并输出相应的信息。 需要注意,在使用 axios 进行文件上传时,必须将

    2024年02月22日
    浏览(31)
  • 前端上传大文件使用分片上传

    前提:分片上传针对于一些大的文件、普通大小的文件使用element中的上传组件可以实现效果,例如几G的文件就会比较卡,所以这时候就需要用到分片上传~ 前端及后端分片上传笔记 效果:(上传进度展示) 效果:(上传成功的效果展示)

    2024年01月25日
    浏览(34)
  • 前端大文件分片上传

    开始上传:前端启动文件分片上传。后端返回唯一标识。 分片上传:获取到上传的文件,然后设置一个固定的分片大小,将文件切成多个小片,计算出每一个分片的MD5值(32位)。将每个分片的内容和MD5标识符一同上传至服务器。服务端接收每个分片及相关信息后,通过对每

    2024年04月15日
    浏览(27)
  • SpringBoot+前端文件分片上传

    在日常生活中,文件上传相关的操作随处可见,大到处理大数据量的文件,小到头像上传,都离不开文件上传操作,但是当一个文件的大小超过了某个阈值时,这个文件的上传过程就会变得及其的慢,且会消耗大量网络资源,这是我们不愿意看到的,所以,文件分片上传孕育而生。 文件分

    2024年02月19日
    浏览(29)
  • 前端加载超大图片(100M以上)实现秒开解决方案

    前端加载超大图片时,一般可以采取以下措施实现加速: 图片压缩:将图片进行压缩可以大幅减小图片的大小,从而缩短加载时间。压缩图片时需要注意保持图片质量,以免影响图片显示效果。 图片分割:将超大图片分割成多个小图块进行加载,可以避免一次性加载整个图

    2024年02月07日
    浏览(31)
  • 前端大文件分片上传 进度条展示 上传暂停、开始、取消

    实现的效果: 1、多个大文件(支持10个G以上)分片上传 2、进度条展示进度 3、控制文件上传暂停和取消 实现关键点: 1、文件预处理(md5计算、请求和进度处理等) 2、分片上传的流程(查询已上传分片、文件合并等) 3、文件的暂停、开始、取消 首先使用file类型的input框

    2024年04月26日
    浏览(24)
  • Node.js 操作百度网盘实现文件上传(小文件上传,大文件分片上传)

    Node.js 操作百度网盘实现文件上传(小文件上传,大文件分片上传) 前提准备:获取百度网盘的授权码 https://pan.baidu.com/union/doc/al0rwqzzl

    2024年02月09日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包