Cursor实战:Web版背单词应用开发演示

Cursor实战:Web版背单词应用开发演示

Cursor实战:Web版背单词应用开发演示

在上一篇《Cursor AI编程助手不完全指南》中,我们详细介绍了Cursor这款强大的AI编程工具。为了让大家能更直观地了解 Cursor 的实战应用价值,本文将通过一个实际项目来展示其开发流程。我们将使用 Cursor 开发一个 Web 版单词学习程序,通过这个案例,您将看到 AI 辅助开发的完整过程,体验从需求分析到代码实现的全过程。让我们开始这次实战之旅。

需求分析

在开始开发之前,明确的需求文档是项目成功的关键。一个好的需求文档不仅能指导开发方向,还能作为与 Cursor 进行高效对话的重要基础。我们有两种方式来准备需求文档:自行编写需求文档和借助 Cursor 生成需求文档。

自行编写需求文档

  • 明确列出功能模块和具体需求
  • 按优先级排序各项功能
  • 将文档保存为独立文件,方便随时参考
  • 确保描述清晰,避免歧义

借助Cursor生成需求文档

  • 提供项目的核心目标和主要功能点
  • 让AI协助完善功能描述和技术细节
  • 根据实际需求进行调整和补充
Cursor帮我们需求分析

摘抄部分功能内容,填充到自己的开发需求文档如下:

# 开发一个学单词的web程序 ## 核心功能需求 ### 学习模式 - 从未学单词中挑选10个单词进行学习 - 单词卡片展示(拼写、音标、释义、例句) - 发音功能 - 可以将当前词加入到错题本,进行复习 ### 复习模式 - 从错词本中随机抽取单词进行复习 ### 用户管理 - 用户免登录,可以设置用户名 ## 技术需求 ### 前端 - 响应式设计,支持多端适配 - 流畅的交互体验,界面简洁美观 ### 后端 - 如果需要用到后端程序,请使用python语言 - 如果需要用到数据库,请使用MySQL ## 数据结构 ### 单词库 - 单词基本信息(拼写、音标、发音音频、释义、例句) ### 用户学习记录 - 记录用户学习记录和错题信息 

前端UI设计

使用 Cursor 的 COMPOSER 模式+ AGENT,以需求文档作为上下文,和 Cursor 对话,让其帮忙生成 UI 界面。

请根据我的需求文档,设计一个学单词的web界面,要求简洁美观 
Cursor进行UI设计

觉得设计的还不错,就直接选择 Accept,如需修改可继续提问进行修改。

Accept

下面进行 web 界面的预览, 选中 html 文件,右键 Open In Default Browser

Open In Default Browser
界面预览

后端开发

前端部分先这样,可以继续进行后端设计,包括API接口、功能实现和数据库设计。

Cursor进行后端设计
Cursor进行后端设计

项目结构

Cursor 给出的后端项目结构:

 app/ ├── models/ │ └── models.py ├── routes/ │ └── word_routes.py ├── utils/ └── app.py requirements.txt .env 

环境参数

Cursor 创建一个保存环境变量文件,我们需要修改其中的内容,如连接数据库的URI。

DATABASE_URL=mysql+pymysql://root:root@localhost/word_memorize FLASK_ENV=development FLASK_APP=app/app.py 

数据库设计

  • Word 表:存储单词基本信息
  • UserProgress 表:存储用户学习进度和错题本

创建数据库:

CREATE DATABASE word_memorize CHARACTER SET utf8mb4 COLLATE utf8mb4_unicode_ci; 

表可以先不创建,后面让Cursor生成程序进行表的创建和测试数据生成。

安装Python依赖

Cursor 已为我们创建一个 requirements.txt 文件来管理项目依赖(如果没有,可让其帮忙生成)。

Flask==2.0.1 Flask-SQLAlchemy==2.5.1 Flask-CORS==3.0.10 PyMySQL==1.0.2 python-dotenv==0.19.0 requests==2.26.0 

有了依赖我们可以直接执行以下安装命令,可以让 Cursor 帮忙执行,(注意:如果使用的是python虚拟环境,可能需要手动执行命令,cursor 默认使用默认的 python 环境):

pip install -r requirements.txt 
安装Python依赖

运行应用

flask run 

首次运行,出错了,没关系,交给 Cursor 去解决(这是一个持续过程,需要有点耐心):

运行出错

根据提示,升级Flask版本:

Cursor提示修复

继续运行,又报错了,继续丢给 Cursor 帮忙解决:

Cursor提示修复

修改了依赖的版本和代码中依赖的导入方式:

Cursor提示修复

又回到了第一个问题,版本不兼容,Cursor 建议让我们用第二种方式解决:

Cursor提示修复

这次启动成功:

启动成功

前端代码修改

接下来,我们需要修改前端JavaScript代码,对接后端 API。

Cursor前端代码修改

测试前端界面

修改之后,打开页面,报错了页面中的CSS和JS文件找不到,可能是路径问题,需要修复下:

前端页面问题
前端页面修复

接收所有建议,需要运行一个服务用于加载前端文件:

前端正常

测试数据生成

我们让Cursor帮忙生成测试单词数据:

测试数据生成

添加单词报错:

添加单词报错

一通修复之后,终于添加了单词

添加测试单词

功能测试

单词展示和下一个功能正常:

单词展示

加入错题本正常:

加入错题本正常

单词学完:

单词学完

Bug修复

页面虽然展示添加到错题本成功,其实并没有真正添加到数据库:

错题本bug
错题本bug

需要Cursor帮忙修复这个问题:

Cursor修复后端代码

修复之后,重启程序,仍然有问题,不过我观察到错题记录是被答题记录更新掉了,需要让 Cursor 注意到这个问题:

Cursor修复后端代码
Cursor修复后端代码

错题本终于也正常了:

Cursor修复成功

总结

虽然这是一个相对简单的示例项目,但它展示了 AI 辅助开发的基本流程和方法。通过这次实践,我们可以总结以下几点经验:

1、交互策略

  • 与Cursor进行清晰、具体的对话
  • 将复杂需求拆分成小步骤
  • 及时反馈和纠正AI的输出

2、效率提升

  • 善用上下文管理,保持对话连贯性
  • 复用已验证的代码片段
  • 建立个人的提示词模板

Read more

手把手教你在AutoDL上用LLaMA-Factory微调GPT-OSS-20B模型(LoRA版)

手把手教你在AutoDL上用LLaMA-Factory微调GPT-OSS-20B模型(LoRA版)

本教程详细讲解如何在AutoDL云GPU上使用LLaMA-Factory框架微调GPT-OSS-20B大语言模型,包含完整的环境配置、训练流程、权重合并以及vLLM推理部署全流程。文章最后还分享了笔者踩过的坑和解决方案,建议收藏备用! 前言 最近在做一个智能采购相关的项目,需要对大语言模型进行微调,让它能够更好地理解采购场景的业务需求。在对比了多种方案后,最终选择了LLaMA-Factory + LoRA的组合,原因主要有三点: 1. 开箱即用:LLaMA-Factory提供了非常完善的训练框架,支持多种微调方式 2. 显存友好:LoRA相比全参数微调,显存占用大幅降低 3. 效果不错:在采购对话场景下,LoRA微调已经能够满足业务需求 本文将完整记录从环境配置到模型部署的全过程,希望能够帮助到有同样需求的小伙伴。 一、方案概览 在开始之前,先来看一下整体的技術方案: 组件选择说明微调框架LLaMA-Factory 0.9.4开源的大模型训练框架基础模型GPT-OSS-20B200亿参数的MoE大模型微调方式LoRA低秩适配,显存友好推理引擎vLLM高性能推

Llama Factory隐藏功能:一键生成可部署的API服务

Llama Factory隐藏功能:一键生成可部署的API服务 作为一名移动应用开发者,当你费尽心思微调好一个文本分类模型后,最头疼的问题可能就是:如何将它快速转化为可调用的API接口?本文将手把手教你利用Llama Factory的隐藏功能,无需复杂编码即可生成可部署的API服务,实现从训练到上线的"最短路径"。 这类任务通常需要GPU环境支持,目前ZEEKLOG算力平台提供了包含Llama Factory的预置镜像,可快速部署验证。下面我们从零开始,完整走通这个流程。 为什么需要API服务化? * 应用集成需求:移动端APP通常通过HTTP请求与后端交互,直接调用模型文件几乎不可行 * 资源隔离:将模型部署为独立服务,避免移动设备性能瓶颈 * 版本管理:API接口可保持稳定,后台模型可随时更新替换 提示:Llama Factory内置的API生成功能基于FastAPI框架,默认支持Swagger文档自动生成。 准备工作:检查你的微调成果 在开始API部署前,请确认你已完成以下步骤: 1. 成功微调模型并保存检查点(通常为adapter_model.bin

别把 F1 开成老头乐:GitHub Copilot 深度调教与 7 个“上下文工程”秘籍

别把 F1 开成老头乐:GitHub Copilot 深度调教与 7 个“上下文工程”秘籍

别把 F1 开成老头乐:GitHub Copilot 深度调教与 7 个“上下文工程”秘籍 前言 很多开发者抱怨 Copilot 生成的代码是“垃圾”或“幻觉”。真相是:Copilot 是一辆 F1 赛车,而大多数人只把它当成了自动挡的老年代步车。 本指南将揭示 Copilot 不为人知的底层机制,教你通过“上下文工程” (Context Engineering),让 AI 写出精准、规范的生产级代码。 核心心智模型:Copilot 是怎么“思考”的? 在学习技巧前,你需要理解 Copilot 的大脑构造。它不是在瞎猜,它是在根据你喂给它的“上下文(Context)”计算概率。 Copilot 的上下文由三层组成:

智能家居AI侦测方案:树莓派+云端协同,低成本实现

智能家居AI侦测方案:树莓派+云端协同,低成本实现 引言:为什么需要边缘+云端协同? 智能家居正在从简单的远程控制进化到主动感知环境、预测需求的AI时代。但一个现实难题摆在面前:摄像头、传感器产生的海量数据全部上传云端处理,不仅网络带宽压力大,每月云服务账单也让人肉疼。而如果只依赖树莓派等边缘设备,又难以运行复杂的AI模型。 这就是为什么边缘计算+云端协同成为最优解:让树莓派处理基础检测(如有人移动、异常声音),可疑事件再触发云端深度分析。实测下来,这种架构能降低80%以上的云端计算成本,同时保持高准确率。 1. 硬件准备:百元级树莓派方案 1.1 基础设备清单 * 树莓派4B/5(4GB内存起步):约400-600元 * USB摄像头(推荐罗技C920):200-300元 * 麦克风模块(可选):50-100元 * 移动电源/充电器:确保24小时供电 1.2 系统环境配置 用官方Raspberry Pi