用 龙虾10 分钟搞定 C 语言 + 前端实训?我试了,真香!

用 龙虾10 分钟搞定 C 语言 + 前端实训?我试了,真香!
在这里插入图片描述

🚀 用龙虾10 分钟搞定 C 语言 + 前端实训?我试了,真香!

一句话总结:选对模型 + 写好提示词,让“龙虾”帮你从零生成可运行的 C 语言成绩管理系统 + 全栈博客前端项目,连实训报告都自动生成!

大家好,我是 VON。最近“AI 编程助手”火出圈,但很多人还在手动敲代码、调 Bug、写报告……其实,只要用对工具,一个指令就能完成整套高校实训作业

今天我就带大家实测:如何用 AI 智能体(俗称“龙虾”) 快速搞定两类典型课程设计——
C 语言学生成绩管理系统
React 全栈个人博客系统

全程无需打开 IDE,甚至不用看一行代码!👇


🔧 第一步:选对模型,效率翻倍!

智能体的输出质量,70% 取决于底层大模型。我这里使用的是 智谱 AI 的 GLM-5 模型,代码生成能力强、支持长上下文,特别适合工程类任务。

🔗 官网:https://bigmodel.cn/

GLM-5 模型界面
💡 小技巧:在 OpenClaw 或 Trae 等框架中,直接输入 zhipu/glm-5,系统会自动配置,省去繁琐设置!
自动配置模型

📝 第二步:C 语言实训 —— 学生成绩管理系统

1. 先让 AI 生成一份标准实训要求(你也可以用自己的)

AI 生成实训要求

2. 关键:写好提示词!

告诉 AI 你的身份和目标,越具体越好:

我是一个计算机大一新生,需要完成 C 语言实训作业。 请根据以下要求开发“学生成绩管理系统”: (粘贴完整需求文档) 
✅ 需求必须包含:功能列表、技术规范、交付物格式(源码 + 报告)

3. 下达指令:“帮我完成这个作业!”

不废话,直接让它开干👇

下达指令

4. 几分钟后,桌面自动生成完整项目!

包含:

  • main.c, student.c, student.h(模块化代码)
  • data.txt(模拟数据文件)
  • report.md(实训报告)
项目文件夹生成


代码与报告已就绪

5. 运行测试(遇到乱码别慌!)

双击 .exe 文件,如果出现中文乱码👇

乱码问题

只需反馈一句:“控制台中文显示乱码,请修复”,它就会自动调整编码或改用英文菜单!

反馈乱码问题

很快就能看到成功运行界面👇

运行成功

6. 功能全测试通过!

✅ 显示所有学生

显示全部

✅ 修改成绩

修改

✅ 按姓名查询

按姓名查

✅ 按学号查询

按学号查

✅ 录入学生信息

录入
📌 进阶功能也全实现:文件持久化、非法输入校验、排序统计、菜单循环……

7. 实训报告自动生成!

报告是 Markdown 格式,内容完整,包含需求分析、设计思路、测试截图、总结反思👇

实训报告
🔁 如果学校要求 Word 文档?只需说:“把 report.md 转成 report.docx”,它秒转!

💻 第三步:前端实训 —— 全栈博客系统

1. 同样,先生成前端项目需求

生成前端需求

2. 提交需求,让它“开干”!

提交前端任务

3. 自动初始化环境 + 下载依赖

它会自动执行 npm create vite、安装 Tailwind CSS 等👇

自动下载环境

4. 项目生成完成!

由于项目较大,稍等几分钟即可👇

前端项目完成

5. 调试技巧:F12 看报错,丢给 AI 修复!

运行时若控制台有红字错误👇

F12 查看报错

直接复制错误信息发给它:“修复这个前端错误”,它会精准定位并返回修正代码!

直到控制台干净无报错👇

无报错

6. 项目效果展示

黑暗主题切换

黑暗主题

发布博客(富文本)

发布博客

个人中心

个人中心

首页文章流

首页

✅ 总结:为什么这方法值得推广?

传统方式AI 智能体辅助
手动敲代码 3-5 天10 分钟生成可运行项目
调试崩溃到深夜自动处理异常、修复 Bug
报告东拼西凑自动生成结构化文档
功能缺漏被扣分严格按评分标准实现
🌟 重点提醒
AI 不是让你“躺平”,而是把时间省下来理解核心逻辑——比如 C 语言的指针、文件 I/O、结构体设计。你可以:阅读生成的代码尝试扩展新功能准备答辩讲解

这才是高效学习!

🔚 最后

如果你也在为期末实训头疼,不妨试试这个方法!
模型推荐:GLM-5 / Qwen-Max / Claude 3.5
提示词核心:身份 + 需求 + 技术栈 + 交付格式

Read more

文心一言4.5开源模型测评:ERNIE-4.5-0.3B超轻量模型部署指南

文心一言4.5开源模型测评:ERNIE-4.5-0.3B超轻量模型部署指南

目录 * 引言:轻量化部署的时代突围 * 一.技术栈全景图:精准匹配的黄金组合 * 基础层:硬核环境支撑 * 框架层:深度优化套件 * 工具层:部署利器 * 二.详细步骤:精准匹配CUDA 12.6的黄金组合 * 准备环节 * 1.模型选择 * 2.配置实例 * 3.选择镜像 * 4.进入JupyterLab * 5.进入终端 * 6.连接到ssh * 系统基础依赖安装 * 1.更新源并安装核心依赖 * 2.安装 Python 3.12 和配套 pip * 解决 pip 报错 * 深度学习框架部署:PaddlePaddle-GPU深度调优 * FastDeploy-GPU企业级部署框架 * 1.安装FastDeploy核心组件 * 2.修复urllib3

AI辅助编程工具(三) - Github Copilot

AI辅助编程工具(三) - Github Copilot

三、Github Copilot 简单来说,GitHub Copilot 是由 GitHub 和 OpenAI 共同开发的人工智能编程助手。它基于 OpenAI 的 GPT-4 等大模型,并在海量的开源代码库上进行过训练。 它的工作原理: 它不只是一个简单的“自动补全”工具。它会读取你的代码上下文——包括你刚刚写的变量名、光标所在的文件、甚至是项目中其他相关文件的代码——然后实时预测你接下来想写什么。 对于前端开发者而言,它最迷人的地方在于:它懂 React、懂 Vue、懂 Tailwind CSS,甚至懂你那不规范的代码风格。 3.1 GitHub Copilot 安装与使用 安装前的准备 在开始之前,你需要确保拥有以下条件: 1. GitHub 账号:如果没有,请先去 GitHub

VSCode在WSL环境下无法使用Github Copilot(网络问题)

概要 本文记录了一个案例:VSCode 在 WSL 环境下无法使用 Github Copilot,但是原生 Windows 下使用没问题。 问题表现 使用 VsCode 连接到 WSL 后,Copilot 无法进行自动或手动补全,在聊天窗口输入信息后始终显示“正在准备 Copilot”。 使用 Ctrl+` 打开面板,点击“输出”面板,右上角选择"Github Copilot Chat",可以看到错误日志如下: 2025-09-03 15:54:27.648 [info] [GitExtensionServiceImpl] Initializing Git extension service. 2025-09-03 15:54:27.

Qwen3.5-4B 微调实战:LLaMA-Factory 打造医疗AI助手

Qwen3.5-4B 微调实战:LLaMA-Factory 打造医疗AI助手

最近在帮一个医疗创业团队做技术支持,他们想把通用大模型改造成能回答专业医疗问题的智能助手。今天就把整个过程整理出来,希望对有类似需求的朋友有所帮助。 核心工具链:LLaMA-Factory + Qwen3.5-4B + 医疗问答数据集 Qwen3.5 是阿里最新发布的千问系列模型,4B 参数量刚好卡在"效果够用 + 显存友好"的甜蜜点;LLaMA-Factory 则是目前开源社区最成熟的微调框架,上手简单,坑也相对少。 准备工作 先说硬件要求。4B 模型用 LoRA 微调的话,一张 12GB 显存的显卡就够了(比如 RTX 4070)。如果手头只有 8GB 显存的卡,可以上 QLoRA 量化方案,牺牲一点精度换显存空间。 微调方式 4B 模型显存需求 推荐显卡 LoRA (16-bit) ~10-12 GB