AI课堂生成网站丨OPENMAIC丨清华团队开源项目

AI课堂生成网站丨OPENMAIC丨清华团队开源项目

OpenMAIC(谐音“My课”)是一个AI教学平台,它能为你生成一个专属的7x24小时AI教室。在这个教室里,你是唯一的真人学生,而老师、助教和同学都由AI智能体扮演。

  • AI老师:负责主讲课程,可以在虚拟白板上实时书写、画图,并进行语音讲解。
  • AI助教与同学:会与你实时互动,他们可以提问、发起讨论,模拟真实课堂的临场感。

你只需要输入一个课程主题(如“什么是摩擦力”)或上传一份文档,系统就能自动生成包含幻灯片、随堂测验、互动模拟和项目式学习活动的完整课程。

🎓 主要特点

  • 极速课程构建:只需输入关键词或上传文档,AI即可在约30分钟内自动生成一套结构完整的教学包,成本极低。
  • 拟真多角色课堂:通过多智能体协同,模拟出教师、助教和不同性格的同学,他们可以说话、在白板上绘画,并与你进行实时讨论,显著增强学习的参与感。
  • 跨应用轻量调用:通过内置的OpenClaw集成,用户可以直接在飞书、Slack等主流协作工具中,通过简单的指令触发课程生成。
  • 全格式灵活交付:生成的课件支持导出为可编辑的PPT文件或打包为独立的HTML文件,方便二次编辑和使用。

OpenMAIC提供了非常友好的入门方式:

  1. 在线体验:直接访问其官方网站,无需任何技术背景即可生成和体验课程。
  2. 本地部署:对于有技术能力的学校或开发者,项目已在GitHub上完全开源,支持接入通义千问、智谱GLM等国内主流大模型。

使用体验:

网站限制上传50M的,上传了一个45M的,等了15分钟都没有生成我想要的课堂,于是换了一个小的9M的PDF,也等了15分钟。

生成课堂需要时间,需要耐心等待。我上传了8.6M的PDF,等待了15分钟生成。

比起让千问豆包生成文字课堂,这个的优势在于界面清晰,有朗读和PPT视频讲解。另外,可以收藏到个人账号里,下一次登录就可以继续。

网页版的用起来不是很顺畅。使用体验一般。15分钟生成了第一页PPT,等他生成第二页估计还得15分钟,速度太慢了。给老师备课不错,真拿来给学生学习,似乎还不成熟,可能需要等她慢慢生成,但我没有耐心,直接丢给AI都已经总结完了。

还不错吧。

我一般想学习某一文档,直接把PDF丢给各家AI,千问DS等,让他生成提示词,我再用它给我的提示词丢给AI,让他教我本书的内容。

Read more

Qwen3-VL + LLama-Factory进行针对Grounding任务LoRA微调

Qwen3-VL + LLama-Factory进行针对Grounding任务LoRA微调

0.官方GitHub网站: GitHub - QwenLM/Qwen3-VL:Qwen3-VL 是由阿里云 Qwen 团队开发的多模态大语言模型系列。https://github.com/QwenLM/Qwen3-VL 空间感知能力大幅提升:2D grounding 从绝对坐标变为相对坐标,支持判断物体方位、视角变化、遮挡关系,能实现 3D grounding,为复杂场景下的空间推理和具身场景打下基础。 OCR 支持更多语言及复杂场景:支持的中英外的语言从 10 种扩展到 32 种,覆盖更多国家和地区;在复杂光线、模糊、倾斜等实拍挑战性场景下表现更稳定;对生僻字、古籍字、专业术语的识别准确率也显著提升;超长文档理解和精细结构还原能力进一步提升。 一是采用 MRoPE-Interleave,原始MRoPE将特征维度按照时间(t)、高度(h)和宽度(w)的顺序分块划分,

2025.10.17 更新 AI绘画秋葉aaaki整合包 Stable Diffusion整合包v4.10 +ComfyUI整合包下载地址

2025.10.17 更新 AI绘画秋葉aaaki整合包 Stable Diffusion整合包v4.10 +ComfyUI整合包下载地址

2025.10.17 更新 AI绘画秋葉aaaki整合包 Stable Diffusion整合包v4.10 +ComfyUI整合包下载地址 * @[TOC](2025.10.17 更新 AI绘画秋葉aaaki整合包 Stable Diffusion整合包v4.10 +ComfyUI整合包下载地址) * 🌈 Stable Diffusion整合包(秋葉aaaki整合版) * 📦 【下载链接】 * 💡 英特尔 CPU 用户特别提醒 * 🔧 AMD 显卡专用方案 * ⚙️ 常见问题与解决方案 * 🧠 ComfyUI 整合包(秋葉aaaki定制优化版) * 📥 【下载链接】 * 🚀 更新日志(2025.2.4 v1.6) * 🧩 报错解决 关键词建议(自动覆盖百度、必应等搜索) AI绘画整合包下载、Stable Diffusion整合包、ComfyUI整合包、秋葉aaaki整合包、AI绘图工具、AI绘画模型、

2.2 GPT、LLaMA 与 MOE:自回归模型与混合专家架构演进

2.2 GPT、LLaMA 与 MOE:自回归模型与混合专家架构演进 基于《大规模语言模型:从理论到实践(第2版)》第2章 大语言模型基础 爆款小标题:从 GPT 到 LLaMA 到 MOE,主流架构差异与选型一张表搞定 为什么这一节重要 大模型产品与开源生态里,最常见的就是「GPT 类」「LLaMA 类」和「MOE 类」模型。若不搞清楚它们在训练目标(自回归 vs 掩码)、架构细节(归一化、激活、位置编码)和使用场景上的差异,很容易出现「用 BERT 做长文本生成」或「用纯 GPT 做句向量」这类错配。

Copilot 之后,再无“搬砖”

Copilot 之后,再无“搬砖”

硬编码时代,我们似乎已经习惯了在编辑器里按下 Tab 键。但如果你依然只把 AI 当作一个“高级补全插件”,那么你可能正在错过这场生产力革命的下半场。从 Copilot 到 Agent(智能体),这不仅仅是名称的更迭,更是开发范式从“辅助”向“协作”的本质跃迁。 今天,我想聊聊如何在这个交叉点上,利用开源生态构建一个真正属于你自己的私有化开发助手。 1. 为什么说 Copilot 已经不够用了? 如果把 AI 辅助开发比作驾驶,传统的 Copilot(如 GitHub Copilot, Cursor)更像是“定速巡航”:它能帮你保持车速、预测下一个弯道(代码补全),但它并不清楚你要去哪,更无法在遇到封路时自动规划绕行方案。 而 Agent 则是“自动驾驶”。两者的核心差异在于:自主性与闭环能力。 * Copilot(