GitHub热榜----前端已死?AionUi 横空出世:首个开源“生成式UI”框架,让 AI 在运行时“手搓”界面

GitHub热榜----前端已死?AionUi 横空出世:首个开源“生成式UI”框架,让 AI 在运行时“手搓”界面

摘要:2025 年我们还在惊叹于 V0 和 Bolt 的代码生成能力,而 2026 年初,AionUi 的发布宣告了**“运行时生成 (Runtime GenUI)”**时代的到来。不再需要预先写好所有 Component,不再需要 Hardcode 每一个表单。AionUi 允许你的应用根据用户的意图,实时渲染出从未被编码过的 UI 界面。本文带你上手这个颠覆性的开源项目。


🚀 前言:从“写死”到“生成”

传统前端开发的逻辑是:

产品经理提需求 -> 设计师出图 -> 程序员把 UI 写成代码 (React/Vue) -> 打包发布 -> 用户看到静态界面。

如果用户想要一个“分析上季度财报”的功能,而你没写这个页面,用户就没法用。

但昨天登上 GitHub Trending 榜首的 AionUi 打破了这个死循环。它的核心理念是:Don't code the UI, code the Intent (不要编码界面,要编码意图)。

项目地址http://github.com/iOfficeAI/AionUi


🔍 什么是 AionUi?

AionUi 是一个专为 AI Agent 时代设计的动态 UI 渲染引擎

它不像 Ant Design 或 ShadcnUI 那样提供一堆死板的组件,它提供的是一个**“画布 (Canvas)”**。当你告诉它“给我展示一个特斯拉股票的走势分析”时,AionUi 会:

  1. 理解意图:调用底层 LLM(支持 DeepSeek, GPT-4o, Claude)。
  2. 结构化流式输出:大模型实时输出 UI 的 JSON 描述结构 (Aion Schema)。
  3. 即时渲染:前端引擎将 JSON 瞬间映射为高颜值的 React/Vue 组件并挂载到页面上。

简单说:它就是 App 里的 ChatGPT,但它回复的不是文字,而是可以直接交互的按钮、图表和仪表盘。


💡 核心特性解析

1. 🌊 流式组件水合 (Streaming Component Hydration)

传统的 Server-Side Rendering (SSR) 是流式传输 HTML。AionUi 做到的是流式传输组件树。

用户还在输入“我要订一张去...”的时候,AionUi 就已经开始预加载“机票搜索框”的组件骨架了。这种极致的响应速度,让 AI 生成界面的体感延迟几乎为零。

2. 🧩 这种 UI 是“活”的 (Adaptive Context)

同一个 <AionWidget /> 组件:

  • 手机端,它可能生成一个简洁的 BottomSheet。
  • 桌面端,它会自动生成一个复杂的多列 Dashboard。
  • 深色模式用户习惯(比如左撇子模式),全部由 AI 在运行时自动调整,无需开发者写繁琐的 Media Query。

3. 🛡️ 安全沙箱 (UI Sandbox)

这是企业级开发最关心的。AionUi 并不允许 AI 随意生成 <script> 标签。它基于一套严格的 Design System Mapping 机制。AI 只能“拼装”你设计系统中已有的原子组件(Button, Card, Chart),确保生成的界面既安全又符合品牌规范。


💻 极速上手:3分钟重构你的聊天机器人

假设你正在做一个 AI 客服,以前它只能回复文字,现在我们用 AionUi 让它回复界面。

第一步:安装

Bash

npm install @aion-ui/react @aion-ui/core 

第二步:定义原子组件库

你需要告诉 AionUi 你的仓库里有哪些“积木”可用。

TypeScript

// registry.ts import { Button, Card, DatePicker } from '@/components/ui'; export const componentRegistry = { button: Button, card: Card, date_picker: DatePicker, // ... 注册你的 ShadcnUI 或 AntD 组件 }; 

第三步:在页面中使用生成画布

TypeScript

import { AionCanvas } from '@aion-ui/react'; import { useChat } from 'ai/react'; export default function AgentPage() { const { messages, input, handleInputChange, handleSubmit } = useChat(); return ( <div className="chat-container"> {messages.map(m => ( <div key={m.id}> {/* 文字消息 */} <p>{m.content}</p> {/* 如果 AI 觉得需要展示 UI,就会在这里生成 */} {m.toolInvocations && ( <AionCanvas intent={m.toolInvocations[0]} registry={componentRegistry} theme="cyberpunk" // 甚至可以指定风格 /> )} </div> ))} </div> ); } 

效果:

当用户问:“下周三去北京的机票多少钱?”

后台 LLM 不会回复“请去携程查”,而是直接通过 AionCanvas 渲染出一个带有日期选择器和价格列表的卡片,用户直接点击“购买”即可。


⚠️ 现在的局限性

虽然 AionUi 很酷,但作为尝鲜者,你需要知道:

  1. Token 消耗:生成 UI 结构比生成纯文本更消耗 Token(XML/JSON 结构冗余)。建议搭配 DeepSeek-V3 这种低成本模型使用。
  2. 一致性问题:偶尔 AI 会“审美崩坏”,比如把红色按钮放在绿色背景上。需要在 Prompt 层面对设计规范做强约束。

🎯 总结

AionUi 的出现,标志着前端开发进入了 Frontend 3.0 时代。

  • 1.0:HTML/CSS (手写)
  • 2.0:React/Vue (组件化)
  • 3.0:AionUi (意图驱动,运行时生成)

未来,我们可能不再需要写具体的页面,而是编写**“UI 的生成规则”**。

对于开发者来说,现在掌握 AionUi,就是掌握了 Agent 应用层的入场券。

Read more

AIGC时代的网络安全威胁与应急响应机制构建

AIGC时代的网络安全威胁与应急响应机制构建

文章目录 * 一、AIGC时代的网络安全威胁 * 二、应急响应机制的构建 * 三、代码示例 * 《网络安全应急管理与技术实践》 * 编辑推荐 * 内容简介 * 作者简介 * 目录 * 前言/序言 随着人工智能生成内容(AIGC)技术的迅猛发展,我们正步入一个前所未有的创新与变革的新时代。然而,与这一技术革新相伴的,不仅仅是便利和效率的提升,更有日益严峻的网络安全威胁。AIGC技术在显著提升内容生成效率与质量的同时,也悄然带来了新的攻击面与潜在风险,这些风险若不及时应对,将对个人、组织乃至整个社会造成深远的影响。 一、AIGC时代的网络安全威胁 在AIGC时代,数据泄露与隐私侵犯的风险愈发突出。AIGC技术依赖于海量数据,这些数据中不乏敏感信息,一旦数据保护措施出现疏漏,这些信息就可能被不法分子恶意利用,导致个人隐私泄露、财产损失等严重后果。 此外,恶意代码注入也是AIGC系统面临的一大威胁。在系统的训练或推理过程中,如果输入数据未经严格过滤,就可能被注入恶意代码,进而引发系统瘫痪、数据篡改等安全问题。 算法偏见与歧视同样不容忽视。

Wekan开源看板终极指南:从入门到精通完整教程

Wekan开源看板终极指南:从入门到精通完整教程 【免费下载链接】wekanThe Open Source kanban (built with Meteor). Keep variable/table/field names camelCase. For translations, only add Pull Request changes to wekan/i18n/en.i18n.json , other translations are done at https://app.transifex.com/wekan/ only. 项目地址: https://gitcode.com/GitHub_Trending/we/wekan Wekan作为一款完全开源的项目管理工具,凭借其直观的看板界面和丰富的功能生态,

Github Copilot Agent模式使用经验分享

Github Copilot Agent模式使用经验分享

本文总结了如何使用 GitHub Copilot Agent 模式,并分享实际操作经验。 前置设置 1. 使用 VSCode Insider; 2. 安装 GitHub Copilot(预览版)插件; 3. 选择 Claude 3.7 Sonnet(预览版)模型,该模型在代码编写方面表现出色,同时其它模型在速度、多模态(如图像识别)及推理能力上具备优势; 4. 工作模式选择 Agent。 操作步骤 1. 打开 “Copilot Edits” 选项卡; 2. 添加附件,如 “Codebase”、“Get Errors”、“Terminal Last Commands” 等; 3.

openclaw使用llama.cpp 本地大模型部署教程

openclaw使用llama.cpp 本地大模型部署教程

openclaw使用llama.cpp 本地大模型部署教程 本教程基于实际操作整理,适用于 Windows WSL2 环境 全程使用 openclaw 帮我搭建大模型 一、环境准备 1. 硬件要求 显卡推荐模型显存占用GTX 1050 Ti (4GB)Qwen2.5-3B Q4~2.5GBRTX 4060 (8GB)Qwen2.5-7B Q4~5GBRTX 4090 (24GB)Qwen2.5-32B Q4~20GB 2. 安装编译工具(WSL Ubuntu) sudoapt update sudoaptinstall -y cmake build-essential 二、下载和编译 llama.cpp