深入理解前端防抖(Debounce)与节流(Throttle):原理、区别与实战示例

深入理解前端防抖(Debounce)与节流(Throttle):原理、区别与实战示例

深入理解前端防抖(Debounce)与节流(Throttle):原理、区别与实战示例

📌 引言

在前端开发中,我们经常需要处理高频事件(如输入框输入、滚动、窗口调整大小等)。如果不加限制,浏览器会频繁触发回调函数,导致性能问题,甚至页面卡顿

防抖(Debounce)节流(Throttle) 是两种优化方案,可以有效控制事件触发的频率,提高应用的性能和用户体验。

本篇文章将详细解析 防抖和节流的原理、适用场景及代码实现,帮助你更好地优化前端应用。


1. 什么是防抖(Debounce)?

📝 概念

防抖是一种在事件触发后延迟执行的技术,如果在延迟期间事件被再次触发,计时器会重置,重新计算延迟时间。

核心思想短时间内多次触发,只执行最后一次

📌 适用场景

  • 搜索框输入(防止用户每次输入都发送请求)
  • 窗口调整大小(resize)(防止短时间内多次触发计算)
  • 表单输入验证(用户停止输入后再进行验证)

✅ 代码实现

functiondebounce(fn, delay =300){let timer;returnfunction(...args){if(timer)clearTimeout(timer);// 清除之前的定时器 timer =setTimeout(()=>fn.apply(this, args), delay);};}

示例:输入框防抖

<inputtype="text"id="search"placeholder="请输入内容"><script>const input = document.getElementById('search'); input.addEventListener('input',debounce((e)=>{ console.log('搜索内容:', e.target.value);},500));</script>
效果:用户输入停止 500ms 后,才触发 console.log

2. 什么是节流(Throttle)?

📝 概念

节流是一种限定函数执行频率的技术,即在一定时间间隔内,函数最多执行一次,即使事件被频繁触发。

核心思想高频触发,固定间隔执行

📌 适用场景

  • 滚动事件(scroll)(如懒加载、页面滚动监听)
  • 鼠标移动(mousemove)(防止触发过多计算)
  • 按钮点击(click)(防止用户疯狂点击)

✅ 代码实现

functionthrottle(fn, interval =300){let lastTime =0;returnfunction(...args){const now = Date.now();if(now - lastTime >= interval){fn.apply(this, args); lastTime = now;}};}

示例:滚动监听

<divstyle="height: 2000px;"></div><script> window.addEventListener('scroll',throttle(()=>{ console.log('滚动中...',newDate().toLocaleTimeString());},1000));</script>
效果:无论滚动多快,scroll 事件每秒最多执行一次

3. 防抖 vs. 节流:有什么区别?

防抖(Debounce)节流(Throttle)
触发方式事件触发后延迟执行事件触发后间隔执行
特性短时间连续触发,只执行最后一次固定时间间隔内最多执行一次
适用场景输入框输入、搜索框、表单验证滚动、鼠标移动、按钮点击
优势避免无效调用,减少资源消耗保证高频事件可执行,提高流畅度
实现方式setTimeout 延迟执行Date.now() 控制执行间隔

📌 总结

  • 如果你想等用户停止操作后再执行任务,使用防抖(Debounce)
  • 如果你希望控制函数执行的频率,使用节流(Throttle)

4. 进阶优化:使用 Lodash

我们可以直接使用 Lodash 提供的 debouncethrottle 方法,避免自己实现。

✅ Lodash 防抖

npm install lodash 
import _ from'lodash';const handleInput = _.debounce((e)=>{ console.log('防抖触发:', e.target.value);},500); document.getElementById('search').addEventListener('input', handleInput);

✅ Lodash 节流

const handleScroll = _.throttle(()=>{ console.log('节流触发',newDate().toLocaleTimeString());},1000); window.addEventListener('scroll', handleScroll);
Lodash 优势:内部优化更好,支持立即执行leading)和延迟执行trailing)。

5. 结合 Vue 实战应用

📌 Vue 中使用防抖

<template><inputv-model="searchText"@input="handleInput"placeholder="搜索"></template><script>import{ ref }from'vue';import _ from'lodash';exportdefault{setup(){const searchText =ref('');const handleInput = _.debounce((e)=>{ console.log('搜索关键词:', e.target.value);},500);return{ searchText, handleInput };},};</script>
效果:用户停止输入 500ms 后才会触发搜索请求。

📌 Vue 中使用节流

<template><button@click="handleClick">点击节流</button></template><script>import _ from'lodash';exportdefault{setup(){const handleClick = _.throttle(()=>{ console.log('按钮点击',newDate().toLocaleTimeString());},2000);return{ handleClick };},};</script>
效果:按钮每 2s 只能点击一次。

6. 结论

防抖(Debounce)和节流(Throttle) 是前端性能优化的重要技术,合理使用可以显著减少不必要的计算,提高页面流畅度。

适用场景推荐方法
输入框防止频繁请求防抖(Debounce)
窗口调整大小(resize)防抖(Debounce)
滚动事件(scroll)节流(Throttle)
鼠标移动(mousemove)节流(Throttle)
按钮点击(click)节流(Throttle)

Read more

基于FunASR语音识别WebUI快速部署|科哥二次开发镜像实战

基于FunASR语音识别WebUI快速部署|科哥二次开发镜像实战 1. 背景与技术选型 1.1 语音识别技术发展现状 近年来,随着深度学习在语音信号处理领域的深入应用,自动语音识别(ASR)技术取得了显著突破。特别是在中文场景下,基于端到端模型的语音识别系统已广泛应用于智能客服、会议转录、字幕生成等实际业务中。 FunASR 是由阿里云推出的一个开源语音识别工具包,支持多种主流模型架构,如 Paraformer、SenseVoice 等,具备高精度、低延迟和良好的可扩展性。其模块化设计使得开发者可以灵活集成 VAD(语音活动检测)、PUNC(标点恢复)、LM(语言模型)等功能组件。 1.2 科哥二次开发镜像的价值 本文所使用的镜像 “FunASR 语音识别基于speech_ngram_lm_zh-cn 二次开发构建by科哥” 是在官方 FunASR 基础上进行功能增强和界面优化的定制版本。该镜像主要特点包括: * 集成 speech_ngram_

不仅是记忆:设计前端侧的AI对话历史存储与上下文回溯方案

不仅是记忆:设计前端侧的AI对话历史存储与上下文回溯方案 在当前的大模型应用浪潮中,很多前端开发者切入AI领域的第一步往往是封装一个ChatGPT般的对话界面。起初,我们可能只是简单地将用户输入和AI回复Push到一个数组中,并在页面上渲染。然而,随着应用场景的深入,这种“玩具级”的架构很快就会面临严峻挑战。 背景:被忽视的“记忆”成本 很多前端同学在开发AI应用时,最容易踩的坑就是“只顾眼前交互,忽视持久化与上下文管理”。 痛点主要体现在三个方面: 1. 数据脆弱性:用户不小心刷新页面,长达几十轮的深度对话瞬间灰飞烟灭。这种体验在Web端是致命的,用户无法接受自己的“思考过程”因误操作而丢失。 2. 上下文窗口限制:大模型都有Token限制(如GPT-3.5的4k,GPT-4的8k/32k)。如果前端只是无脑累加历史记录发给后端,很快就会报错context_length_exceeded。前端必须具备“上下文回溯”与“裁剪”的能力。 3. 多会话管理:现代AI应用往往是多会话并行的(类似ChatGPT左侧列表)。如何高效索引、

OpenWebUI联网搜索实战:如何用SearXNG让本地大模型获取实时信息(附百度/360配置)

OpenWebUI联网搜索实战:如何用SearXNG让本地大模型获取实时信息(附百度/360配置) 如果你在本地运行大模型,比如用Ollama部署了Qwen、Llama或者DeepSeek,可能会发现一个尴尬的问题:模型的知识截止日期是固定的,它不知道今天股市涨跌,不清楚最新的科技新闻,甚至不知道明天是什么节日。这种“信息孤岛”的感觉,让本地大模型的实用性大打折扣。 我最初搭建OpenWebUI环境时,也遇到了这个痛点。看着模型一本正经地分析过时的数据,那种无力感让我开始寻找解决方案。市面上有不少联网搜索方案,但要么配置复杂,要么对国内网络环境不友好。经过几周的折腾和测试,我发现SearXNG这个开源元搜索引擎,配合OpenWebUI的联网搜索功能,是目前最稳定、最灵活的方案之一。 更重要的是,通过合理配置SearXNG,我们可以让本地大模型直接调用百度、360等国内搜索引擎,获取符合中文用户习惯的实时信息。这不仅仅是技术上的连接,更是让本地AI真正“接地气”的关键一步。下面我就把自己踩过的坑、验证过的配置,以及实际效果对比,毫无保留地分享给你。 1. 为什么需要SearXN

前端代码质量保证:让你的代码更可靠

前端代码质量保证:让你的代码更可靠 毒舌时刻 代码质量?听起来就像是前端工程师为了显得自己很专业而特意搞的一套复杂流程。你以为随便写几个测试就能保证代码质量?别做梦了!到时候你会发现,测试代码比业务代码还多,维护起来比业务代码还麻烦。 你以为ESLint能解决所有问题?别天真了!ESLint只能检查代码风格,无法检查逻辑错误。还有那些所谓的代码质量工具,看起来高大上,用起来却各种问题。 为什么你需要这个 1. 减少错误:代码质量保证可以帮助你发现和修复代码中的错误,减少生产环境中的问题。 2. 提高可维护性:高质量的代码更容易理解和维护,减少后期的维护成本。 3. 促进团队协作:统一的代码质量标准可以便于团队成员之间的协作,减少沟通成本。 4. 提高开发效率:高质量的代码可以减少调试和修复错误的时间,提高开发效率。 5. 提升代码安全性:代码质量保证可以帮助你发现和修复安全漏洞,提升代码的安全性。 反面教材 // 这是一个典型的代码质量问题示例 // 1. 代码风格不一致 function getUser(id) { return fetch(`/api/