前端文件上传方案:别再只用input type=file了

前端文件上传方案:别再只用input type=file了

前端文件上传方案:别再只用input type=file了

毒舌时刻

这代码写得跟网红滤镜似的——仅供参考。

各位前端同行,咱们今天聊聊前端文件上传。别告诉我你还在用原生的input上传大文件,那感觉就像在用小水管灌满游泳池——慢得让人绝望。

为什么你需要文件上传方案

最近看到一个项目,上传100MB的文件直接卡死浏览器,没有任何进度提示,我差点当场去世。我就想问:你是在做上传还是在做浏览器杀手?

反面教材

<!-- 反面教材:原生文件上传 --> <input type="file" onchange="uploadFile(this.files[0])" /> <script> function uploadFile(file) { const formData = new FormData(); formData.append('file', file); // 直接上传,没有进度,没有断点续传 fetch('/api/upload', { method: 'POST', body: formData }); } </script> 

毒舌点评:这代码,我看了都替你的用户着急。原生上传大文件,你是想让用户等到天荒地老吗?

前端文件上传的正确姿势

1. 分片上传

// 正确姿势:分片上传 class ChunkUploader { constructor(file, options = {}) { this.file = file; this.chunkSize = options.chunkSize || 1024 * 1024; // 1MB this.chunks = Math.ceil(file.size / this.chunkSize); this.uploadedChunks = 0; } async upload() { const promises = []; for (let i = 0; i < this.chunks; i++) { const start = i * this.chunkSize; const end = Math.min(start + this.chunkSize, this.file.size); const chunk = this.file.slice(start, end); promises.push(this.uploadChunk(chunk, i)); } await Promise.all(promises); await this.mergeChunks(); } async uploadChunk(chunk, index) { const formData = new FormData(); formData.append('chunk', chunk); formData.append('index', index); formData.append('total', this.chunks); formData.append('filename', this.file.name); await fetch('/api/upload/chunk', { method: 'POST', body: formData }); this.uploadedChunks++; this.onProgress(this.uploadedChunks / this.chunks); } onProgress(progress) { console.log(`上传进度: ${(progress * 100).toFixed(2)}%`); } async mergeChunks() { await fetch('/api/upload/merge', { method: 'POST', headers: { 'Content-Type': 'application/json' }, body: JSON.stringify({ filename: this.file.name, chunks: this.chunks }) }); } } // 使用 const uploader = new ChunkUploader(file, { chunkSize: 1024 * 1024 }); uploader.upload(); 

2. 断点续传

// 正确姿势:断点续传 class ResumableUploader { constructor(file) { this.file = file; this.chunkSize = 1024 * 1024; this.uploadedChunks = new Set(); } async init() { // 获取已上传的分片 const response = await fetch(`/api/upload/status?filename=${this.file.name}`); const { uploadedChunks } = await response.json(); this.uploadedChunks = new Set(uploadedChunks); } async upload() { const chunks = Math.ceil(this.file.size / this.chunkSize); for (let i = 0; i < chunks; i++) { if (this.uploadedChunks.has(i)) { console.log(`分片${i}已上传,跳过`); continue; } const start = i * this.chunkSize; const end = Math.min(start + this.chunkSize, this.file.size); const chunk = this.file.slice(start, end); await this.uploadChunk(chunk, i); this.uploadedChunks.add(i); // 保存进度到本地 localStorage.setItem('uploadProgress', JSON.stringify([...this.uploadedChunks])); } await this.mergeChunks(); localStorage.removeItem('uploadProgress'); } async uploadChunk(chunk, index) { // 上传逻辑... } } 

3. 拖拽上传

// 正确姿势:拖拽上传 import { useCallback } from 'react'; function DragUpload({ onUpload }) { const handleDrop = useCallback((e) => { e.preventDefault(); const files = Array.from(e.dataTransfer.files); files.forEach(file => onUpload(file)); }, [onUpload]); const handleDragOver = useCallback((e) => { e.preventDefault(); }, []); return ( <div className="drag-upload" onDrop={handleDrop} onDragOver={handleDragOver} > <p>拖拽文件到此处上传</p> <input type="file" multiple onChange={(e) => { Array.from(e.target.files).forEach(file => onUpload(file)); }} /> </div> ); } 

毒舌点评:早这么写,你的上传早就做好了。别告诉我你还在用原生input,那你还是趁早去用FTP吧。

实战技巧:文件上传指南

1. 上传优化策略

  1. 分片上传:大文件切分上传
  2. 断点续传:支持暂停恢复
  3. 并发控制:限制同时上传数量
  4. 进度显示:实时显示上传进度

2. 最佳实践

// ✅ 显示上传进度 const xhr = new XMLHttpRequest(); xhr.upload.onprogress = (e) => { const progress = (e.loaded / e.total) * 100; console.log(`${progress}%`); }; // ✅ 图片预览 const preview = URL.createObjectURL(file); // ✅ 文件类型检查 const allowedTypes = ['image/jpeg', 'image/png']; if (!allowedTypes.includes(file.type)) { alert('不支持的文件类型'); return; } 

最后想说的

文件上传不是小事,是用户体验的关键。别再只用input type=file了——优化一下,你的上传会更专业。

文件上传就像快递,原生input像平邮,优化后的上传像顺丰。别让用户等平邮,给他们顺丰的体验。

Read more

Chromium WebRTC 在 AI 辅助开发中的实战优化与避坑指南

最近在做一个AI辅助的实时协作项目,用到了Chromium的WebRTC模块来处理音视频通信。项目上线初期,当AI推理任务(比如实时背景虚化、手势识别)和WebRTC的编解码、传输同时进行时,延迟抖动非常明显,GPU也经常被“打满”,用户体验很糟糕。这促使我深入研究了WebRTC的底层,并尝试用AI的思路去优化它,最终将端到端延迟降低了近30%。这里把整个实战优化过程和踩过的坑记录下来,希望能给遇到类似问题的朋友一些参考。 1. 背景痛点:当WebRTC遇上AI推理 在传统的视频会议场景中,WebRTC的自适应码率(GCC算法)和抗丢包(NACK、FEC)机制已经相当成熟。然而,在AI辅助开发场景下,比如实时虚拟背景、语音降噪、内容审核等,情况变得复杂很多: * 实时性要求更高:AI处理本身需要时间(推理延迟),这直接叠加在了视频采集、编码、传输、解码、渲染的链路上。用户能明显感觉到“说话”和“画面/效果响应”之间的迟滞。 * GPU资源竞争白热化:WebRTC的视频编码(特别是硬件编码)

Clawdbot Web Chat平台从零开始:Qwen3-32B模型加载、API路由、UI定制完整流程

Clawdbot Web Chat平台从零开始:Qwen3-32B模型加载、API路由、UI定制完整流程 1. 为什么需要这个平台?——一句话说清价值 你是不是也遇到过这样的问题:想快速搭一个能直接对话大模型的网页聊天界面,但又不想从零写前后端、不熟悉模型服务部署、更不想被云API调用限制和费用卡脖子? Clawdbot Web Chat 就是为这类需求而生的轻量级解决方案。它不依赖复杂框架,不强制绑定特定云服务,核心能力就三件事:把本地跑起来的 Qwen3-32B 模型“接进来”、把 API 请求“转过去”、把聊天页面“换上新皮肤”。 整个过程不需要写一行模型推理代码,也不用配置 Nginx 反向代理规则——所有关键链路都已预置,你只需要改几个配置项、启动两个服务、打开浏览器,就能拥有一个专属的、响应快、无延迟、完全可控的大模型对话入口。 2. 环境准备:三步完成基础搭建 2.1 确认系统与依赖 Clawdbot

用Coze打造你的专属AI应用:从智能体到Web部署指南

用Coze打造你的专属AI应用:从智能体到Web部署指南

文章目录 * 一、Coze简介 * 1.1 什么是Coze? * 1.2 核心概念 * 二、Coze产品生态 * 三、智能体开发基础 * 四、Coze资源 * 4.1 插件 * 4.2 扣子知识库 * 4.3 数据库资源 * 五、工作流开发与发布 * 六、应用开发与发布 * 七、Coze的API与SDK * 八、实战案例 一、Coze简介 1.1 什么是Coze? Coze 是字节跳动开发的 AI Agent 平台,作为一款人工智能开发工具,它可以帮助开发者通过低代码甚至零代码的方式快速构建应用程序。此外还提供了相关的API和SDK,可以集成到我们自己开发的项目业务中。 1.2 核心概念 * 智能体:

Java SpringBoot+Vue3+MyBatis Web宠物商城网站系统源码|前后端分离+MySQL数据库

Java SpringBoot+Vue3+MyBatis Web宠物商城网站系统源码|前后端分离+MySQL数据库

摘要 随着互联网技术的快速发展,电子商务逐渐渗透到各个行业领域,宠物行业也不例外。宠物市场的规模不断扩大,消费者对于线上购买宠物及相关用品的需求日益增长。传统的宠物商店受限于地理位置和营业时间,难以满足消费者的便捷购物需求。因此,开发一款功能完善、用户体验良好的宠物商城系统具有重要的现实意义。该系统能够为宠物爱好者提供一站式的购物体验,涵盖宠物食品、用品、医疗服务等多种商品和服务。关键词:宠物商城、电子商务、互联网技术、线上购物、用户体验。 本系统采用前后端分离的架构设计,前端使用Vue3框架实现动态交互和响应式布局,后端基于SpringBoot框架搭建RESTful API服务,数据库采用MySQL进行数据存储,并通过MyBatis实现数据持久化操作。系统功能模块包括用户管理、商品分类与展示、购物车管理、订单处理、支付接口集成以及后台管理功能。用户可以通过注册登录浏览商品、添加购物车、下单支付,管理员则可以通过后台管理系统对商品、订单和用户信息进行管理。系统设计注重性能优化和安全性,确保用户数据的安全性和系统的稳定性。关键词:SpringBoot、Vue3、MyBatis、前后端