前端拖拽交互实现:别再只会用原生拖拽了

前端拖拽交互实现:别再只会用原生拖拽了

前端拖拽交互实现:别再只会用原生拖拽了

毒舌时刻

这代码写得跟网红滤镜似的——仅供参考。

各位前端同行,咱们今天聊聊前端拖拽交互。别告诉我你还在用原生的HTML5拖拽API,那感觉就像在用诺基亚手机——能打电话,但体验太差。

为什么你需要拖拽交互

最近看到一个项目,拖拽功能全靠原生API实现,卡顿、不流畅,用户体验极差,我差点当场去世。我就想问:你是在做拖拽还是在做卡顿生成器?

反面教材

// 反面教材:原生拖拽API function handleDragStart(e) { e.dataTransfer.setData('text/plain', e.target.id); } function handleDragOver(e) { e.preventDefault(); } function handleDrop(e) { e.preventDefault(); const id = e.dataTransfer.getData('text/plain'); // 卡顿的拖拽体验 } 

毒舌点评:这代码,我看了都替你的用户着急。原生拖拽API,你是想让用户体验到卡顿的快感吗?

前端拖拽交互的正确姿势

1. 使用react-beautiful-dnd

// 正确姿势:使用react-beautiful-dnd import { DragDropContext, Droppable, Draggable } from 'react-beautiful-dnd'; function TaskList() { const [tasks, setTasks] = useState([ { id: '1', content: '任务1' }, { id: '2', content: '任务2' }, { id: '3', content: '任务3' } ]); const onDragEnd = (result) => { if (!result.destination) return; const items = Array.from(tasks); const [reorderedItem] = items.splice(result.source.index, 1); items.splice(result.destination.index, 0, reorderedItem); setTasks(items); }; return ( <DragDropContext onDragEnd={onDragEnd}> <Droppable droppableId="tasks"> {(provided) => ( <ul {...provided.droppableProps} ref={provided.innerRef}> {tasks.map((task, index) => ( <Draggable key={task.id} draggableId={task.id} index={index}> {(provided) => ( <li ref={provided.innerRef} {...provided.draggableProps} {...provided.dragHandleProps} > {task.content} </li> )} </Draggable> ))} {provided.placeholder} </ul> )} </Droppable> </DragDropContext> ); } 

2. 使用sortablejs

// 正确姿势:使用sortablejs import Sortable from 'sortablejs'; function initSortable() { const el = document.getElementById('sortable-list'); new Sortable(el, { animation: 150, ghostClass: 'sortable-ghost', dragClass: 'sortable-drag', onEnd: (evt) => { console.log('从', evt.oldIndex, '移动到', evt.newIndex); } }); } // Vue3中使用 import { ref, onMounted } from 'vue'; import Sortable from 'sortablejs'; export default { setup() { const listRef = ref(null); onMounted(() => { new Sortable(listRef.value, { animation: 150, onEnd: (evt) => { // 更新数据顺序 } }); }); return { listRef }; } }; 

毒舌点评:早这么写,你的拖拽早流畅了。别告诉我你还在用原生API,那你还是趁早去用jQuery UI吧。

实战技巧:拖拽交互指南

1. 拖拽库选择

  • react-beautiful-dnd:React拖拽,体验好
  • sortablejs:通用拖拽库
  • dnd-kit:现代React拖拽
  • interact.js:手势交互库

2. 最佳实践

  1. 动画流畅:添加过渡动画
  2. 视觉反馈:拖拽时高亮
  3. 触摸支持:移动端适配
  4. 无障碍:键盘操作支持

最后想说的

拖拽交互不是炫技,是提升用户体验。别再只会用原生拖拽了——用好拖拽库,你的交互会更流畅。

拖拽就像跳舞,原生API像跳广场舞,专业库像跳芭蕾。别做广场舞大妈,做芭蕾舞蹈家。

Read more

ToDesk 全新 ToClaw,正在把电脑交给AI去操作

ToDesk 全新 ToClaw,正在把电脑交给AI去操作

这两年,AI 工具层出不穷,但大多数产品还停留在“能回答、会生成”的阶段:帮你写一段话、搜一份资料、整理一个思路,真正到了执行层,还是得你自己坐回电脑前,一个软件一个软件地点、一项任务一项任务地做。 这也是很多人对 AI 的真实感受——它会说,但不一定真能干活。而 ToDesk 新上线的 ToClaw,想解决的正是这个问题。 一、ToClaw 是什么? ToClaw 是一款基于 OpenClaw 深度定制、并与远程控制运行时深度结合的 AI 助手。它最大的不同,不只是“懂你说什么”,而是能直接在你的电脑上执行操作。 你只需要一句话,它就可以在电脑端完成对应动作:打开软件、点击按钮、填写表单、拖拽文件、整理资料、生成表格、汇总信息……很多原本需要人守在电脑前操作的工作,现在都可以交给 ToClaw

windows stable-diffusion-webui 一键运行,无需配置教程(仅供学习)

windows stable-diffusion-webui 一键运行,无需配置教程(仅供学习)

一.一步完成启动 直接上完整文件 包含模型,python环境 下载结束直接运行 (夸克网盘)(需要有N卡支持) 链接:https://pan.quark.cn/s/c126b8ba78b8?pwd=6fpw 提取码:6fpw 解压后 进入 Stable Diffusion WebUI 目录 解压目录所在位置 cd D:\notebook\AIGC\picture_ai\SDwebui\stable-diffusion-webui 激活python虚拟环境 .venv\Scripts\activate.bat 启动 WebUI 并使用暗色主题 webui.bat --theme dark 嫌启动麻烦的可以下一个 bat 处理命令 新建

如何为Llama系列模型定制专属TensorRT优化方案?

如何为Llama系列模型定制专属TensorRT优化方案? 在大语言模型日益普及的今天,一个70亿参数的Llama模型如果用原生PyTorch部署,响应用户提问可能需要数秒甚至更久——这显然无法满足生产环境对实时性的基本要求。而同样的模型,经过TensorRT深度优化后,在A100 GPU上实现每秒生成数十个token的吞吐能力,延迟降至毫秒级。这种性能跃迁背后,并非简单启用半精度就能达成,而是涉及从图结构重构到算子级定制的一整套系统性工程。 要真正释放Llama这类复杂Transformer架构的推理潜力,必须深入理解TensorRT如何将“通用模型”转化为“专用引擎”。这个过程远不止是格式转换,更像是为特定硬件量身打造一台高性能发动机:它会拆解原有计算流程,重新组合关键部件,并根据负载特性调校每一处细节。 NVIDIA TensorRT本质上是一个推理编译器,它的核心使命是把训练框架中“解释执行”的模型转变为GPU上的“原生可执行程序”。与ONNX Runtime等通用推理引擎不同,TensorRT不追求跨平台兼容性,而是专注于榨干NVIDIA GPU的每一滴算力。尤其是在V

Stable Diffusion WebUI本地部署全步骤(含CUDA,cuDNN,Pytorch GPU版安装过程)(Win 11 + RTX5060)

部署SD WebUI前,先安装CUDA+cuDNN+Pytorch 电脑配置: 系统:windows 11 显卡:NVIDIA GeForce RTX 5060 Laptop GPU 内存:24G 下载版本: CUDA:13.0 cuDNN:9.13.1 Pytorch:12.9 第一步:安装CUDA 步骤一:查看CUDA version win+R输入cmd,在命令提示符窗口中输入nvidia-smi,查看CUDA Version 我的CUDA version 为13.0,所以我下载的版本为13.0的(也可以向下安装低版本的,我建议下载最新的版本)。 CUDA下载网址:https://developer.