一个 skill ,增加大模型前端的审美能力

上周,我让 AI 帮我做个落地页。

十分钟过去了,生成出来的东西——

白色背景,紫色渐变,Inter 字体。

我直接关了。

image-20260119230347828

你也遇到过吧?

用 AI 生前端,出来的东西都长一个样。

背景非白即黑,标题栏永远是紫色渐变,字体不是 Inter 就是 Roboto,配色永远是那套蓝绿红黄。

不是说不能用,但——

太像 AI 了。

一眼看过去就是"机器生成",没有灵魂,没有个性。


直到昨天,我发现了一个东西。

Anthropic 官方出的一个 skill,叫 frontend-design

让我再试一次。

img

这次不一样了

同样的提示词,同样的模型。

我只加了一句话:

“使用 frontend-design skill”

结果呢?

深色工业风背景,等宽科技字体,黄青撞色。

数据卡片有微妙的发光效果,图表有精心设计的动效。

布局不对称,元素有重叠。

一眼看过去——这像人做的。


skill 是什么?

你可以把它理解成一个"插件"。

一个包含 SKILL.md 文件的文件夹,里面写着告诉 AI「在特定场景下该怎么做」的指令。

frontend-design 这个 skill 做的事很简单:

把"什么是好的前端设计"这个判断标准,写清楚。


官方怎么说?

LinkedIn 上,Claude 官方账号发过一条动态:

“我们发布了一个新的前端设计 skill。它专注于几个目标提示效果良好的领域:字体、动画、配色、布局……”

GitHub 在这:github.com/anthropics/skills

搜 “frontend-design skill” 就能找到。


五个原则

我去 GitHub 看了下这个 skill 的内容。

核心就五条:

字体

❌ Inter、Roboto、Arial
✅ 有性格的、独特的字体组合

配色

❌ 紫色渐变、均匀分布的配色
✅ 大胆的主色 + 尖锐的点缀色

动效

❌ 零散的微交互
✅ 精心编排的页面加载动画

布局

❌ 对称、可预测的网格
✅ 非对称、重叠、破格元素

细节

❌ 纯色背景
✅ 渐变网格、噪点纹理、几何图案

一句话:拒绝通用,拥抱独特。


怎么装?三种方法

方法一:命令行(推荐)

打开终端,一行命令:

npx skills-installer install @anthropics/claude-code/frontend-design --client claude-code 

如果你用 Codex,把 --client 改成 codex

如果你用 Cursor:

npx skills-installer install @anthropics/claude-code/frontend-design --local --client cursor 

方法二:手动下载

  1. 打开 github.com/anthropics/skills
  2. 找到 skills/frontend-design 文件夹
  3. 下载整个文件夹
  4. 放到 ~/.claude/skills/ 目录下
  5. 重启工具

方法三:skill0 市场

国内有个团队做了个 Skills 聚合平台,叫 skill0。

地址:skill0.atypica.ai

搜索 “frontend-design”,直接点击下载。


怎么用?

装好后,提示词里加一句就行:

“使用 frontend-design skill 来完成前端设计”

就这么简单。


真实案例

有人在开发者社区分享过实战经验:

第一步,用这个 skill 生成初版登录页,重点看"设计风格"和"结构布局"对不对。

第二步,在同一 skill 指导下迭代优化。

最后整个页面的质感直接上升了一个量级。

不是那种"紫色渐变"的通用模板,而是有设计感、有品牌调性的页面。


还有个案例。

作者直接用这个 skill 优化 Waytoagi 的首页。

提示词就一句:

“使用 frontend-design skill,优化一下 https://www.waytoagi.com”

从平庸的"AI 风格",变成了有设计感的专业页面。


什么时候用?

不是所有情况都需要。

做简单的 CRUD 后台、内部工具,用不用差别不大。

但你做这些的时候:

  • 产品官网
  • 营销落地页
  • SaaS 产品界面
  • 数据可视化 Dashboard
  • 需要惊艳效果的展示页

这个 skill 就能派上用场。


进阶玩法

你可以在原版 skill 的基础上,加自己的东西。

比如品牌主色、偏好的字体、圆角风格、阴影参数。

这样每次生成都符合你的品牌调性,效果更稳定。


为什么这么管用?

它不是教 AI “怎么做”,而是教 AI “怎么选”。

AI 已经见过无数优秀设计。

它缺的,是判断标准。

有了标准,AI 就能调用它已有的知识库,做出正确的选择。

不是注入新能力,而是激活已有能力。


最后

2025 年是 MCP 元年,2026 年是 Skills 元年。

真正的分水岭不在「能不能做」,而在「能不能把判断写成系统、让交付稳定发生」。

frontend-design skill 就是这样一个系统。

官方出品,完全免费,现在就能用。

去试试吧。


参考资源

Read more

DeepSeek-R1-Distill-Llama-8B实战:快速搭建智能问答系统

DeepSeek-R1-Distill-Llama-8B实战:快速搭建智能问答系统 1. 模型介绍与优势 DeepSeek-R1-Distill-Llama-8B是一个经过知识蒸馏优化的推理模型,它在保持较小参数规模的同时,具备了强大的语言理解和生成能力。这个8B参数的模型在性能和计算资源消耗之间找到了很好的平衡点,特别适合需要快速响应和高效推理的智能问答场景。 这个模型基于DeepSeek-R1的先进技术,通过蒸馏过程将大模型的知识压缩到更小的架构中。这意味着你可以在普通的硬件环境下运行它,而不需要昂贵的专业设备。对于想要搭建智能问答系统的开发者来说,这无疑是个好消息——你既不需要担心模型太大跑不动,也不用担心效果不够好。 在实际测试中,DeepSeek-R1-Distill-Llama-8B在多个基准测试中都表现不错。特别是在数学推理、代码生成和一般问答任务上,它的表现可以媲美一些更大的模型。这使它成为搭建智能问答系统的理想选择,无论是用于教育辅导、技术支持还是日常问答,都能提供可靠的服务。 2. 环境准备与快速部署 2.1 系统要求与依赖安装 在开始之前,确保你

Cogito-v1-preview-llama-3B部署教程:免配置镜像快速上手Ollama环境

Cogito-v1-preview-llama-3B部署教程:免配置镜像快速上手Ollama环境 1. 什么是Cogito v1预览版模型 Cogito v1预览版是Deep Cogito推出的混合推理模型系列,这个3B参数的模型在大多数标准基准测试中都表现出色,超越了同等规模的其他开源模型。无论是LLaMA、DeepSeek还是Qwen等知名模型的同类版本,Cogito v1都展现出了更强的能力。 Cogito模型是经过指令调优的生成式模型,采用文本输入和文本输出的方式。最重要的是,所有模型都以开放许可发布,这意味着你可以放心地在商业项目中使用它们。 这个模型的独特之处在于它的混合推理能力。它既可以像标准大语言模型那样直接回答问题,也可以在回答前进行自我反思和推理,这种双重模式让它能够处理更复杂的问题场景。 2. 模型特点与技术优势 2.1 核心技术创新 Cogito模型采用了迭代蒸馏和放大(IDA)训练策略,这是一种通过迭代自我改进来实现智能对齐的高效方法。简单来说,就是让模型在学习过程中不断优化自己,变得越来越聪明。 模型在多个关键领域都进行了专门优化:编程代

2026新手小白AI创业变现指南(二)- AI写作辅助平台

2026新手小白AI创业变现指南(二)- AI写作辅助平台

刚刚更新了2026新手小白AI创业变现指南l列表,新增加了测试过的炼字工坊、蛙蛙写作、笔杆平台(学术论文平台,非通用写作平台)。想简单介绍下,详情请点击2026新手小白AI创业变现指南(一)中平台列表中平台名称看详细介绍。 一、炼字工坊 平台基础信息 项目内容平台名称炼字工坊官方网址https://lianzigongfang.com平台介绍专为网文/剧本/漫剧作者设计的AI创作平台,帮你把精力花在“故事和表达”上,把重复、耗时、卡壳的部分交给AI。相比通用AI,炼字工坊在长篇稳定性上有明显优势。它用「问答+抽卡」帮你定题材卖点,用「设定库」自动归档世界观和角色,用「分层大纲」把控剧情节奏,用「续写润色」解决卡文问题。最重要的是:你的作品不会用于AI训练,版权完全归你。核心定位长篇创作的全流程辅助,从灵感、设定到续写、润色,让你专注创作本身。 🎯 它和通用AI(如DeepSeek、千问)

解决下载慢问题:国内可用的Stable Diffusion和LLaMA模型镜像站清单

国内可用的Stable Diffusion和LLaMA模型镜像站清单:高效解决下载慢问题 在AI生成内容(AIGC)迅速普及的今天,越来越多开发者、设计师和研究人员开始尝试本地部署Stable Diffusion或微调LLaMA这类大模型。但一个现实问题始终困扰着国内用户——模型下载太慢了。 你有没有经历过这样的场景?打开Hugging Face准备下载一个7GB的SDXL基础模型,进度条爬得比蜗牛还慢,半小时才下完一半,结果网络一断,前功尽弃。更别提训练LoRA时需要频繁拉取不同版本的基础权重,这种体验简直让人崩溃。 这背后的原因并不复杂:主流模型大多托管在境外平台(如Hugging Face、Replicate),而原始文件动辄数GB甚至数十GB,加上跨境链路不稳定、DNS污染、限速等问题,直接导致国内直连下载效率极低,严重拖慢了从环境搭建到实际训练的整体节奏。 好在社区早已意识到这个问题,并催生出一批高质量的国内模型镜像站点。它们通过在国内服务器缓存常用模型文件,提供HTTPS加速链接,极大提升了获取效率。配合LoRA这类轻量化微调技术,如今我们完全可以在消费级显卡上完成