服务端之NestJS接口响应message编写规范详解、写给前后端都舒服的接口、API提示信息标准化

服务端之NestJS接口响应message编写规范详解、写给前后端都舒服的接口、API提示信息标准化


前言

在现代后端开发中,接口响应不仅仅是数据的传递,还承担着向前端或用户传递操作状态和结果的功能。一个规范、统一的message字段设计,可以显著提升系统的可维护性、前端开发效率和用户体验。

定义

响应结构示例(NestJS风格)

各字段作用

提示信息设计原则

简洁明了
1、不宜过长,一般3~12个汉字。
2、避免含糊不清的词,如“完成了”、“OK”等。


统一风格
1、同一项目接口建议使用统一动词+状态组合,例如:获取数据成功、数据加载完成。


上下文清晰
1、提示信息应体现操作对象或类型,如“用户列表获取成功”而不是“获取成功”。


可扩展与模板化
1、对于多类型数据返回,可使用模板化语法:


2、如 设备列表获取成功、订单数据获取成功

面向用户与面向开发分层
1、前端提示:简短易懂,强调用户操作状态。
2、后台日志 / 文档:正式、完整,便于排查接口状态。

提示信息风格分类

简洁风格(前端显示)

正式 / 日志风格(后台接口 / 接口文档)

带数量 / 上下文提示

带操作指引提示

提示信息模板化设计

模板
为了统一风格和减少重复代码,可设计模板:


输出:用户列表获取成功,共10条

模板化好处:
1、统一风格,易维护
2、可动态生成提示内容
3、可适配多语言(国际化)

国际化与多语言支持

模板
在国际化项目中,message应使用 语言文件或翻译key,避免硬编码:


好处
1、适配不同语言
2、前端可直接展示翻译内容
3、后端日志仍可使用统一key便于排查

最佳实践

前端提示短小清晰
1、数据加载完成、获取数据成功


后台 / 日志提示正式完整
1、数据已成功获取、列表数据已返回


数量提示增加用户反馈
1、列表数据获取成功,共${list.length}条


模板化 + 动态内容
1、提高复用率,降低出错率


避免模糊词
1、不使用“OK”、“完成了”、“操作成功了”
2、必须明确操作对象、状态或数量

参考示例(NestJS响应)



1、前端显示,用户列表获取成功,共10条
2、日志可记录status+message用于接口监控

总结

1、message字段是接口的重要组成部分,承担操作反馈和提示作用。
2、优化目标:简洁、统一、明确、可扩展、可国际化。
3、规范化提示信息:
3.1、前端提示:短小清晰,用户友好
3.2、后端日志 / 文档:正式完整,便于排查
3.3、可模板化,适应多接口、多数据类型
3.4、可动态添加数量或操作引导

统一风格示例清单推荐


API响应message清单(可直接使用)

1、前端提示(简洁直观)
获取数据成功、数据加载完成、操作成功、保存成功、更新成功、删除成功


2、后端日志 / 正式风格(完整清晰)
数据已成功获取、数据获取操作完成、列表数据已返回、数据更新操作已完成、记录已成功删除、请求已成功处理


3、列表类提示(带上下文)
用户列表获取成功、设备列表获取成功、订单列表获取成功、日志记录获取成功、配置数据获取成功


4、分页 / 带数量提示
列表数据获取成功,共${list.length}条、用户列表加载完成,共${list.length}条、数据获取成功,当前页${page}/共${totalPages}页、数据加载成功,本页${list.length}条,总数${total}条、查询成功,符合条件的数据共${total}条


5、操作提示 / 引导型
数据加载成功,可进行下一步操作、操作成功,数据已更新、删除成功,记录已移除、保存成功,请刷新查看、数据获取成功,请查看列表

Read more

无需昂贵GPU:本地部署开源AI项目LocalAI你在消费级硬件上运行大模型

无需昂贵GPU:本地部署开源AI项目LocalAI你在消费级硬件上运行大模型

前言 本文主要介绍如何在本地服务器部署无需依托高昂价格的 GPU,也可以在本地运行离线 AI 项目的开源 AI 神器 LoaclAI,并结合 cpolar 内网穿透轻松实现远程使用的超详细教程。 随着 AI 大模型的发展,各大厂商都推出了自己的线上 AI 服务,比如写文章的、文字生成图片或者视频的等等。但是使用这些 AI 软件时,都需要将文件数据传输到商家的服务器上,所以不少用户就会存在这样的担忧:我的数据会泄露吗?我的隐私能得到保护吗? 今天就和大家分享一款可以本地部署的开源 AI 项目,它就是在 github 上已经获得了 27.7Kstar 的明星项目 LocalAI!它可以在本地直接运行大语言模型 LLM、生成图像、音频等。关键是不需要高端昂贵的 GPU,是的,直接在消费级硬件上通过 CPU 就能推理运行,真正降低了 AI 使用的门槛。

字节跳动王炸开源!DeerFlow 2.0:从“深度研究”到“全能超级AI员工”的华丽蜕变

字节跳动王炸开源!DeerFlow 2.0:从“深度研究”到“全能超级AI员工”的华丽蜕变 让 AI 从“陪聊”进化为真正干活的“打工人”,从来没有这么简单过。 DeerFlow 2.0 · by @ByteDance · ⭐ 36.1k · 🚀 GitHub Trending Top 1 如果你对 AI 的印象还停留在“一问一答”的聊天框,那么字节跳动刚刚全面重写的开源大作 DeerFlow 2.0 绝对会颠覆你的认知。从最初爆火的深度研究(Deep Research)框架,到如今斩获超 3.6 万 Star、登顶 GitHub 趋势榜首的“超级代理安全带(

2026年8款AI大模型实测排名!国产杀入全球前10,最便宜只要2毛钱

2026年8款AI大模型实测排名!国产杀入全球前10,最便宜只要2毛钱

先说结论:按需求直接选 2026年大模型格局已经从"美国领跑、中国追赶"变成了真正的多极竞争。如果你不想看完全文,这是按场景给出的推荐: * 日常对话和写作:Claude Opus 4.6(综合体验最佳)、豆包 Seed 2.0 Pro(中文国产第一) * 写代码:Claude Opus 4.6 / Gemini 3.1 Pro(旗舰级)、GLM-5 / DeepSeek V3.2(开源最强) * 数学和推理:GPT-5.2(AIME 2025 满分)、豆包 Seed 2.0 Pro(IMO 金牌级)

海光 DUC 环境(海光 DCU K100_AI)部署 ollama+deepseek

看到 ZEEKLOG 上好多的这个部署流程不是要收费就是写的不清不楚,所以决定将我的部署流程写出来,明明所有的官方文档都是免费的。 “不太懂为什么吃了别人免费的饭,现在拉出来的屎要收费!” 声明:本人不是专业运维实施人员,所有的流程都是靠试或直觉,还有一点点的知识 正式开始: 系统:Kylin Linux Advanced Server V10(Lance) CPU:海光 C86 7360(24 核) 内存:256GB 内核:Linux-4.19.90-52.48.v2207.ky10.x86_64 显卡:海光 DCU K100_AI(Co-processor) 1. 环境部署 1.1 驱动安装 光合开发者社区下载驱动 通过显卡型号选择驱动 驱动版本