当前位置: 首页 > ops >正文

前端上传切片优化以及实现

你说的 前端上传切片优化以及实现,主要涉及到大文件分片上传(chunk upload)、并发控制、断点续传、秒传、重试机制等。下面我给你梳理一下实现思路和优化点。


🔹 场景与痛点

  • 大文件上传(>100MB):直接上传会超时或失败。

  • 网络不稳定:中断后需重传。

  • 上传速度慢:需要并发分片上传。

  • 服务端压力大:需要合理控制并发与分片大小。


🔹 基础实现流程

  1. 文件切片
    使用 Blob.slice 方法将文件分割为固定大小的分片(比如 2MB/5MB)。

    function createFileChunks(file: File, chunkSize = 2 * 1024 * 1024) {const chunks: Blob[] = [];let cur = 0;while (cur < file.size) {chunks.push(file.slice(cur, cur + chunkSize));cur += chunkSize;}return chunks;
    }
    
  2. 计算文件唯一标识(hash)
    通常用 MD5/SHA1 或者基于文件名 + 大小 + 上次修改时间。
    可以在浏览器端用 spark-md5

    import SparkMD5 from "spark-md5";async function calculateHash(chunks: Blob[]) {const spark = new SparkMD5.ArrayBuffer();for (const chunk of chunks) {const buffer = await chunk.arrayBuffer();spark.append(buffer);}return spark.end(); // 文件hash
    }
    
  3. 上传分片
    每个分片通过 FormData 上传:

    async function uploadChunk(chunk: Blob, index: number, fileHash: string) {const formData = new FormData();formData.append("chunk", chunk);formData.append("index", String(index));formData.append("fileHash", fileHash);return fetch("/upload", {method: "POST",body: formData,});
    }
    
  4. 合并文件
    前端所有分片上传完成后,调用后端 /merge 接口,通知服务端进行文件合并。


🔹 优化点

  1. 并发控制
    使用 Promise.all 并发上传,但需要限制最大并发数:

    async function limitUpload(chunks, limit = 5) {const pool: Promise<any>[] = [];let i = 0;async function run() {if (i >= chunks.length) return;const task = uploadChunk(chunks[i], i, "fileHash").then(run);pool.push(task);i++;}const workers = Array(limit).fill(null).map(run);await Promise.all(workers);
    }
    
  2. 断点续传

    • 上传前向服务端查询已上传的分片列表。

    • 跳过已完成的分片,仅上传剩余分片。

  3. 秒传

    • 上传前计算 hash

    • 询问服务端该文件是否已存在,存在则直接返回成功。

  4. 失败重试

    • 针对失败的分片,做 最多 N 次重试

    async function retry(fn, retries = 3) {while (retries--) {try {return await fn();} catch (e) {if (!retries) throw e;}}
    }
    
  5. 上传进度显示

    • 每个分片上传时用 XMLHttpRequest.onprogressfetch + ReadableStream 计算进度。

    • 进度 = 已上传分片大小 / 总文件大小。


🔹 前端完整流程

  1. 选择文件 → 切片 → 计算 hash

  2. 调用 /checkFile → 返回已上传分片。

  3. 跳过已完成分片,继续上传剩余分片(带并发控制 & 重试机制)。

  4. 上传完后请求 /merge

  5. 前端实时展示进度条。


🔹 技术选型

  • 切片与上传:原生 Blob.slice + fetch/axios

  • hash计算spark-md5(大文件可用 Web Worker 避免卡 UI)。

  • 断点续传:前端记录进度 / 服务端存储分片状态。

  • 进度显示XMLHttpRequest.onprogressaxios.onUploadProgress


http://www.xdnf.cn/news/20152.html

相关文章:

  • 基于LLM开发Agent应用开发问题总结
  • equals 定义不一致导致list contains错误
  • SQL面试题及详细答案150道(81-100) --- 子查询篇
  • webrtc弱网-LossBasedBandwidthEstimation类源码分析与算法原理
  • 【Proteus仿真】定时器控制系列仿真——秒表计数/数码管显示时间
  • 【ComfyUI】混合 ControlNet 多模型组合控制生成
  • ANSYS HFSS边界条件的认识
  • 【LeetCode热题100道笔记】二叉树中的最大路径和
  • 9.FusionAccess桌面云
  • Spring的事件监听机制(一)
  • 03.缓存池
  • 【数学建模】质量消光系数在烟幕遮蔽效能建模中的核心作用
  • 故障诊断 | MATLAB基于CNN - LSSVM组合模型在故障诊断中的应用研究
  • 在Ubuntu上配置Nginx实现开机自启功能
  • 54.【.NET8 实战--孢子记账--从单体到微服务--转向微服务】--新增功能--实现手机邮箱注册
  • js面试题 什么是作用域?
  • 【Proteus仿真】定时器控制系列仿真——LED小灯闪烁/流水灯/LED灯带控制/LED小灯实现二进制
  • EG2104 SOP-8 带SD功能 内置600V功率MOS管 栅极驱动芯片
  • 智能客户服务支持智能体
  • 基于GOA与BP神经网络分类模型的特征选择方法研究(Python实现)
  • 登录优化(双JWT+Redis)
  • 开源AI智能名片链动2+1模式S2B2C商城小程序服务提升复购率和转介绍率的研究
  • 80(HTTP默认端口)和8080端口(备用HTTP端口)区别
  • phpMyAdmin文件包含漏洞复现:原理详解+环境搭建+渗透实战(vulhub CVE-2018-12613)
  • Linux 使用pip报错(error: externally-managed-environment )解决方案
  • Qt图表功能学习
  • sensitive-word 敏感词性能提升14倍优化全过程 v0.28.0
  • 【C++】memcpy导致的深拷贝问题
  • [Upscayl图像增强] docs | 前端 | Electron工具(web->app)
  • 【Python字符串格式化】:全面指南与最佳实践