Stitch——Google热门的免费AI UI设计工具

Stitch——Google热门的免费AI UI设计工具

Google Stitch是谷歌在2025年I/O大会上推出的一款AI驱动的UI设计工具。它能根据文字描述或草图快速生成网页和移动端界面,并导出可用于开发的前端代码,并且可以直接与另一个前端AI编码工具AI Studio直接联动,将生成的UI发给AI Studio进行开发。

访问方式与要求:

  1. 通过访问官网(stitch.withgoogle.com),使用谷歌账户登录即可开始使用。
  2. Google Stitch并不支持全部地区,如vpn设置为中国香港也无法访问,美国地区可以使用。

使用流程:

第一步:进入官网并完成登录:

第二步:选择合适的模型:

    1. 默认选择的是3 Flash,使用Gemini 3.0 Flash,生成速度较快。
    2. 3 Pro模式下,优先保障高质量与推理能力,速度缓与3 Flash。
    3. Redesign模式使用Nano Banana Pro重新设计现有项目,需要添加屏幕截图。
    4. Ideate模式下,支持提出问题并寻找解决方案。

第三步:选择移动端或Web端并添加描述:

示例:3 Flash模式下,创建Web端项目:

内容描述:实现一个简单的项目管理工具UI界面;

模型思考反馈:

模型绘制过程:


绘制完成:

内容总览:

界面详情:

第四步:生成变体

当希望得到同一个界面的多个不同UI设计(变体)时,有以下三种方式:

  1. 选中已经生成的UI设计界面,在对话框中选中“3x”,添加提示词指导变体的生成;
  2. 通过“+”按钮上传图片资源,在对话框中选中“3x”,添加提示词指导变体的生成;
  3. 只通过对话框添加提示词描述并选中“3x”,生成多个变体。
示例:

通过Select选择要生成变体的设计稿:

对话框会显示已选择的界面,选择变体后添加描述补充即可:

结果概述:

界面详情(生成3个变体):

第五步:微调

当stitch给出的界面设计总体符合自己的愿景时,可以采取更细化的调整UI组件内容

选择编辑按钮:

然后在界面上选择需要微调修改的组件内容:

例如我选择了如图的进度条样式,并选择Edit With AI,输入提示词:

思考过程:

最终结果:(此处省略几次样式美化与调整)

第六步:导出与使用

选中目标设计稿后悬停,会弹出一个菜单栏,鼠标悬停到More即可展示菜单选项:

使用一:直接复制使用前端代码:

在悬停菜单中选择“查看代码”:会直接展示该界面的前端代码,且支持复制。

使用二:复制(导出)到Figma:

在悬停菜单中选择“复制到Figma”:

点击右边弹出框底部的“转换”即可完成复制,在Figma中粘贴即可:

使用三:导出:

实际上包含了“复制代码”、“复制到Figma”、“下载”,并且支持更多的导出方式。

其中.zip导出格式会下载一个压缩包,解压后包含两个文件:一个code.html代码文件和一个screen.png图片文件。

Read more

11-Xtuner具体使用以及LLama Factory与Xtuner多卡微调大模型

11-Xtuner具体使用以及LLama Factory与Xtuner多卡微调大模型

训练前 500轮训练后 xtuner命令不存在 版本:0.2.0存在 回退到0.2.0rc0版本,注意这个版本的依赖固定 一、大模型分布式训练的基本概念 1.1 为什么需要分布式训练? 模型规模爆炸:现代大模型(如GPT-3、 LLaMA等)参数量达千亿级别,单卡GPU无法存储完整模型。 计算资源需求:训练大模型需要海量计算(如GPT-3需数万GPU小时),分布式训练可加速训练过程。 内存瓶颈:单卡显存不足以容纳大模型参数、梯度及优化器状态。 1.2 分布式训练的核心技术 数据并行(Data Parallelism) 原理:将数据划分为多个批次,分发到不同设备,每个设备拥有完整的模型副本。 同步方式:通过All-Reduce操作同步梯度(如PyTorch的DistributedDataParallel)。 挑战:通信开销大,显存占用高(需存储完整模型参数和优化器状态)。 模型并行(Model Parallelism) 原理:

SiameseUniNLU镜像免配置优势:开箱即用支持NER/RE/EC/RC/NLI/RC/QA八大任务

SiameseUniNLU镜像免配置优势:开箱即用支持NER/RE/EC/RC/NLI/RC/QA八大任务 你是不是也遇到过这样的烦恼?想用AI模型处理一段中文文本,比如从新闻里提取人名地名,或者分析一段评论是好评还是差评。结果发现,每个任务都需要找一个专门的模型,部署起来步骤一大堆,配置文件看得人头大,好不容易跑起来了,效果还不一定好。 今天要介绍的SiameseUniNLU镜像,就是来解决这个问题的。它就像一个“自然语言处理瑞士军刀”,把命名实体识别、关系抽取、情感分类等八个常用任务,全都打包进了一个模型里。最棒的是,它完全免配置,下载下来就能用,真正做到了开箱即用。 这篇文章,我就带你快速上手这个强大的工具,看看它到底能做什么,以及怎么用最简单的几步,让它为你工作。 1. SiameseUniNLU是什么?一个模型解决八大任务 在深入使用之前,我们先花几分钟了解一下SiameseUniNLU到底厉害在哪里。理解了它的设计思路,你用起来会更得心应手。 1.1 核心思路:用“提示”统一所有任务 传统的自然语言处理(NLP)

从零开始:AIGC中的变分自编码器(VAE)代码与实现

从零开始:AIGC中的变分自编码器(VAE)代码与实现

个人主页:chian-ocean 文章专栏 深入理解AIGC中的变分自编码器(VAE)及其应用 随着AIGC(AI-Generated Content)技术的发展,生成式模型在内容生成中的地位愈发重要。从文本生成到图像生成,变分自编码器(Variational Autoencoder, VAE)作为生成式模型的一种,已经广泛应用于多个领域。本文将详细介绍VAE的理论基础、数学原理、代码实现、实际应用以及与其他生成模型的对比。 1. 什么是变分自编码器(VAE)? 变分自编码器(VAE)是一种生成式深度学习模型,结合了传统的概率图模型与深度神经网络,能够在输入空间和隐变量空间之间建立联系。VAE与普通自编码器不同,其目标不仅仅是重建输入,而是学习数据的概率分布,从而生成新的、高质量的样本。 1.1 VAE 的核心特点 * 生成能力:VAE通过学习数据的分布,能够生成与训练数据相似的新样本。 * 隐空间结构化表示:VAE学习的隐变量分布是连续且结构化的,使得插值和生成更加自然。 * 概率建模:VAE通过最大化似然估计,能够对数据分布进行建模,并捕获数据的复杂特性。

LLaMA-Factory 大模型微调平台

LLaMA-Factory 大模型微调平台

目录 文章目录 * 目录 * LLaMA-Factory * LLaMA-Factory + Qwen3-7B + LoRA * 安装部署 * 准备数据集 * 执行微调 * 批量推理和训练效果评估 * LoRA 模型合并导出 * 部署运行微调后的大模型 LLaMA-Factory Llama-Factory 是基于 transformers 库开发的训练、微调、推理一体化平台,支持预训练、指令监督微调、奖励模型训练、PPO 训练、DPO 训练、KTO 训练、ORPO 训练等多种训练范式。支持使用 Accelerate 或 DeepSpeed 作为训练加速后端。 使用 Llama-Factory 进行微调非常简单,因为其最大的优势在于强大的数据处理与训练配置能力。只要按照官方的文档配置好环境,直接运行对应的脚本即可。 LLaMA-Factory + Qwen3-7B + LoRA 安装部署 * 容器安装 git clone