前端缓存策略:让你的网站飞起来

前端缓存策略:让你的网站飞起来

毒舌时刻

前端缓存?这不是浏览器的事吗?

"我不需要管缓存,浏览器会自动处理"——结果网站加载慢,用户体验差,
"缓存就是localStorage嘛,多简单"——结果缓存管理混乱,内存占用高,
"我直接禁用缓存,省得麻烦"——结果每次都重新加载,浪费带宽。

醒醒吧,前端缓存不是简单的localStorage,而是一套完整的策略!

为什么你需要这个?

  • 性能提升:减少重复请求,加快页面加载速度
  • 用户体验:离线访问,减少等待时间
  • 带宽节省:减少服务器流量,降低成本
  • 可靠性:网络不稳定时仍能正常访问

反面教材

// 反面教材:滥用localStorage function fetchData() { // 每次都从API获取数据 return fetch('https://api.example.com/data') .then(res => res.json()) .then(data => { // 直接存储到localStorage localStorage.setItem('data', JSON.stringify(data)); return data; }); } // 反面教材:没有缓存失效策略 function getCachedData() { // 永远使用缓存,不考虑过期 const cachedData = localStorage.getItem('data'); return cachedData ? JSON.parse(cachedData) : null; } // 反面教材:缓存键命名混乱 function cacheData(key, data) { // 缓存键没有统一规范 localStorage.setItem(`cache_${key}_${Date.now()}`, JSON.stringify(data)); } 

正确的做法

// 正确的做法:完整的缓存策略 class CacheManager { constructor() { this.cachePrefix = 'app_cache_'; this.defaultExpiry = 24 * 60 * 60 * 1000; // 24小时 } // 生成缓存键 generateKey(key) { return `${this.cachePrefix}${key}`; } // 存储数据到缓存 set(key, data, expiry = this.defaultExpiry) { const cacheItem = { data, expiry: Date.now() + expiry, timestamp: Date.now() }; try { localStorage.setItem(this.generateKey(key), JSON.stringify(cacheItem)); } catch (error) { console.error('Cache storage error:', error); // 处理存储空间不足的情况 this.clearOldCache(); } } // 从缓存获取数据 get(key) { const cacheItem = localStorage.getItem(this.generateKey(key)); if (!cacheItem) { return null; } try { const parsedItem = JSON.parse(cacheItem); // 检查是否过期 if (Date.now() > parsedItem.expiry) { this.remove(key); return null; } return parsedItem.data; } catch (error) { console.error('Cache parsing error:', error); this.remove(key); return null; } } // 移除缓存 remove(key) { localStorage.removeItem(this.generateKey(key)); } // 清空所有缓存 clear() { Object.keys(localStorage).forEach(key => { if (key.startsWith(this.cachePrefix)) { localStorage.removeItem(key); } }); } // 清理过期缓存 clearOldCache() { Object.keys(localStorage).forEach(key => { if (key.startsWith(this.cachePrefix)) { try { const item = JSON.parse(localStorage.getItem(key)); if (Date.now() > item.expiry) { localStorage.removeItem(key); } } catch (error) { localStorage.removeItem(key); } } }); } // 获取缓存大小 getCacheSize() { let size = 0; Object.keys(localStorage).forEach(key => { if (key.startsWith(this.cachePrefix)) { size += localStorage.getItem(key).length; } }); return size; } } // 正确的做法:使用Service Worker缓存 // service-worker.js const CACHE_NAME = 'app-cache-v1'; const ASSETS_TO_CACHE = [ '/', '/index.html', '/manifest.json', '/static/js/main.js', '/static/css/main.css', '/static/images/logo.png' ]; // 安装Service Worker self.addEventListener('install', event => { event.waitUntil( caches.open(CACHE_NAME) .then(cache => { console.log('Opened cache'); return cache.addAll(ASSETS_TO_CACHE); }) ); }); // 激活Service Worker self.addEventListener('activate', event => { const cacheWhitelist = [CACHE_NAME]; event.waitUntil( caches.keys().then(cacheNames => { return Promise.all( cacheNames.map(cacheName => { if (cacheWhitelist.indexOf(cacheName) === -1) { return caches.delete(cacheName); } }) ); }) ); }); // 拦截网络请求 self.addEventListener('fetch', event => { event.respondWith( caches.match(event.request) .then(response => { // 如果缓存中有响应,直接返回 if (response) { return response; } // 否则发起网络请求 return fetch(event.request) .then(response => { // 如果响应有效,缓存一份 if (response && response.status === 200 && response.type === 'basic') { const responseToCache = response.clone(); caches.open(CACHE_NAME) .then(cache => { cache.put(event.request, responseToCache); }); } return response; }); }) ); }); // 正确的做法:API请求缓存 async function fetchWithCache(url, options = {}) { const cacheKey = `api_${url}_${JSON.stringify(options)}`; const cacheManager = new CacheManager(); // 尝试从缓存获取 const cachedData = cacheManager.get(cacheKey); if (cachedData) { return cachedData; } // 发起网络请求 const response = await fetch(url, options); const data = await response.json(); // 缓存数据 cacheManager.set(cacheKey, data, 5 * 60 * 1000); // 5分钟过期 return data; } 

毒舌点评

看看,这才叫前端缓存策略!不是简单地使用localStorage,而是构建一套完整的缓存管理系统,包括过期策略、空间管理、Service Worker等。

记住,缓存不是越多越好,而是要合理使用。你需要根据数据的性质和使用频率,选择合适的缓存策略。

所以,别再觉得缓存是浏览器的事了,它是前端性能优化的重要组成部分!

总结

  • localStorage:适合存储小量、不敏感的数据
  • sessionStorage:适合存储会话期间的数据
  • IndexedDB:适合存储大量结构化数据
  • Service Worker:适合缓存静态资源和API响应
  • 缓存策略:合理设置过期时间,定期清理过期缓存
  • 缓存键管理:使用统一的命名规范,避免缓存键冲突
  • 错误处理:处理存储空间不足等异常情况
  • 性能监控:监控缓存命中率,不断优化缓存策略

前端缓存,让你的网站飞起来!

Read more

2026 免费 AI 编程助手排行榜:文心快码、Copilot 与 Cursor 深度评测

2026年度核心结论速览 基于 IDC《中国生成式 AI 代码工具评估 2025》 及 Stack Overflow 2026 开发者调查 数据,我们将主流工具分为三个梯队。 * 行业现状:据 McKinsey 报告显示,AI 辅助开发使新手工程师效率提升 2倍,熟练开发者编码速度提升 55%。 * Tier 0 (工程化首选):文心快码 (Comate)。唯一在 IDC 评估中斩获 8项满分 的产品,支持企业级免费开通与个人免费使用,是目前唯一具备完整“代码智能体(Coding Agent)”形态的工具。 * Tier 1 (生态首选):GitHub Copilot。全球生态最强,拥有 85% 的开发者信心提升率,适合开源社区重度用户。 * Tier

低成本运行 Claude Code:通过 LiteLLM 接入 GitHub Copilot Chat API 的完整指南

低成本运行 Claude Code:通过 LiteLLM 接入 GitHub Copilot Chat API 的完整指南

阅读原文 一、背景与动机 Claude Code 是 Anthropic 推出的编程 Agent 工具,很多人会用它做 “vibe coding”:一边写代码一边提问,在对话中重构、重组、查 bug,体验非常接近“和聪明同事结对编程”。 但在实际使用中,它有两个比较现实的问题: 1. 成本高:频繁的对话请求,会很快消耗你的 Anthropic API 配额; 2. 网络不稳:在一些网络环境下,直接请求 Anthropic API 可能经常超时或失败。 与此同时,很多开发者已经在使用 GitHub Copilot。GitHub 在 Copilot 背后接入了包括 Claude 在内的多种大模型(具体组合会随时间调整),而你已经为这部分算力付过费了。 于是,一个很自然的问题出现了:

AI作图效率高,亲测ToDesk、顺网云、青椒云多款云电脑AIGC实践创作

AI作图效率高,亲测ToDesk、顺网云、青椒云多款云电脑AIGC实践创作

一、引言 随着人工智能生成内容(AIGC)的兴起,越来越多的创作者开始探索高效的文字处理和AI绘图方式,而云电脑也正成为AIGC创作中的重要工具。相比于传统的本地硬件,云电脑在AIGC场景中展现出了显著的优势,云电脑通过提供强大的计算资源,轻松应对深度学习模型的训练和推理任务,而其弹性扩展性也允许用户按需调整资源,无需购买昂贵的硬件设备,极大地降低了成本。 本文将通过对ToDesk云电脑、顺网云、青椒云三款云电脑的亲测实践,探讨它们在AIGC创作中的表现,带您一同感受AI作图的高效体验。 二、硬件配置实测分析 强大的硬件配置不仅决定了AIGC模型能否顺畅运行,也决定了生成内容的质量和生成速度。这里我首先选取了各个云电脑产品的最高配置,对显卡性能、内存大小、存储速度等关键指标进行测评。 2.1、显卡性能对比 在处理对话生成、高复杂度的图像生成这类AIGC任务时,显卡扮演着至关重要的角色。各种大型预训练语言模型的训练和推理过程通常涉及大量的矩阵运算和浮点计算。显卡的并行处理能力决定了处理矩阵乘法、卷积操作等计算密集型任务的速度,决定了模型训练与推理的速度。这里我们选取了每款

收藏级|小白也能上手!用魔搭+LLaMA Factory手把手实操大模型微调全流程

收藏级|小白也能上手!用魔搭+LLaMA Factory手把手实操大模型微调全流程

本文用「教育孩子」类比「训练AI」的通俗方式,拆解大模型微调的完整流程,全程基于魔搭平台和LLaMA Factory工具,从环境搭建、模型下载、数据准备,到模型训练、本地测试、模型导出,每一步都附具体操作和代码,无多余冗余。无论是零基础小白,还是刚接触大模型的程序员,都能跟着步骤一步步实操,轻松吃透预训练、微调和RLHF三大核心阶段,成功训练出属于自己的第一个大模型,建议收藏备用,实操时直接对照步骤走! 1、先搞懂:什么是大模型「微调」? 在动手实操前,我们先花2分钟搞懂核心概念——微调。常规大语言模型的训练,就像培养一个孩子,整体分为3个关键阶段,一张图就能看明白: 用「养娃」做类比,小白也能秒懂三个阶段的区别,建议记好这个类比,后续理解流程更轻松: 1. 预训练(对应孩子的「通识教育」) * 模型层面:通过自监督学习,读取海量文本数据,掌握基础的语言规则、词汇逻辑,