AI 中的skill、mcp和 Function Call

AI 中的skill、mcp和 Function Call

 Skill(技能)MCP(模型上下文协议) 和 Function Call(函数调用) 这三个概念。

简单来说,你可以这样理解:

  • Function Call 是基础的、标准的“能力调用机制”。
  • Skill 是面向用户的、打包好的“功能产品”。
  • MCP 是连接 AI 与外部资源和工具的“新一代通信协议”。

1. Function Call(函数调用)

这是最基础、最广泛使用的概念,主要由 OpenAI 在 2023 年 6 月引入并普及。

  • 是什么: 一种让大语言模型(如 GPT-4)能够智能地决定在何时、以何种参数调用开发者预先定义好的函数(或工具) 的机制。它不是直接执行代码,而是输出一个结构化的调用请求。
  • 如何工作
    1. 定义: 开发者向模型描述一系列可用的函数(包括函数名、描述、参数列表及参数类型)。
    2. 决策: 用户提问后,模型根据对话上下文判断是否需要调用函数,以及调用哪个函数、参数是什么。
    3. 响应: 模型返回一个结构化的 JSON 对象(如 {“name”: “get_weather”, “arguments”: {“location”: “Beijing”}}),而不是自然语言。
    4. 执行: 应用程序收到这个 JSON 后,在本地或服务器端实际执行对应的代码,获取结果(如调用天气 API)。
    5. 回复: 将执行结果返回给模型,模型再组织成自然语言回复给用户。
  • 特点
    • 标准化: 已成为众多模型(OpenAI, Anthropic, 国内大模型等)支持的标准特性。
    • 核心机制: 是实现 AI 与外部世界交互的基石。
    • 开发层: 主要面向开发者,用户感知不强。

示例:你问“北京天气怎么样?”,模型不是瞎猜,而是“调用”了你定义的 get_weather(location) 函数,并将 API 返回的真实数据告诉你。


2. Skill(技能)

这是一个更高层、更产品化的概念,常见于 AI 智能体(AI Agent)和 AI 应用平台(如扣子/Coze, GPTs, Dify)。

  • 是什么: 一个封装好的、可重复使用的功能模块或 AI 能力。一个 Skill 内部可能包含提示词、知识库、一个或多个 Function Call、工作流等。
  • 如何工作
    1. 构建: 在平台上通过可视化或配置化的方式,将一个完整的能力打包。例如,一个“订机票”Skill 可能包含:查询航班、获取价格、填写订单等多个步骤或函数。
    2. 调用: 用户通过自然语言触发(如“我想去上海”),AI 智能体自动识别并调用最匹配的 Skill。
    3. 执行: Skill 作为一个整体在后台运行,可能串联多个动作,最终返回结果。
  • 特点
    • 产品化: 是终端用户可以直接理解和使用的东西(如“翻译技能”、“画图技能”)。
    • 可组合性: 可以在智能体中安装多个 Skills,让它具备多种能力。
    • 封装性: 隐藏了底层复杂的函数调用和逻辑,提供端到端的体验。

示例:在 Coze 平台上,你安装了一个“全网搜索” Skill。当用户问“最近有什么科技新闻?”时,你的 Bot 会自动使用这个 Skill 去搜索并返回结果。这个 Skill 底层就是通过 Function Call 来调用搜索 API。


3. MCP(Model Context Protocol,模型上下文协议)

这是一个由 Anthropic 提出并主导的开放协议,旨在标准化 AI 模型与外部资源(服务器、数据库、API 等)的交互方式。可以看作是 Function Call 的“进化版”或“标准化版本”。

  • 是什么: 一个客户端-服务器协议。它定义了一套标准,让任何兼容 MCP 的“服务器”(提供资源的工具)都能轻松地被任何兼容 MCP 的“客户端”(AI 应用或 IDE)使用。
  • 如何工作
    1. 服务器: 任何工具(如文件系统、数据库、日历 API)都可以实现为 MCP 服务器,它向客户端宣告自己提供哪些“资源”和“工具”。
    2. 客户端: AI 应用(如 Claude Desktop, Cursor IDE)作为 MCP 客户端,启动时可以连接一个或多个 MCP 服务器。
    3. 通信: 客户端和服务器通过标准的 JSON-RPC 消息进行通信。当用户需要时,客户端会从服务器获取资源列表或调用工具,并将结果提供给 AI 模型。
  • 特点
    • 协议化与标准化: 解决了不同 AI 模型和工具之间“各自为政”的问题。工具开发者只需实现一次 MCP 接口,就能被所有支持 MCP 的 AI 使用。
    • 动态发现: 客户端可以动态地发现服务器提供的工具,无需在提示词中硬编码。
    • 资源概念: 不仅限于“工具/函数”,还引入了“资源”(如文件、数据库条目)的概念,AI 可以读取资源内容作为上下文。
    • 安全性: 连接通常本地化,资源访问可控,比传统的将 API 密钥暴露给模型更安全。

示例: 你在本地运行了一个 sqlite MCP 服务器和一个 filesystem MCP 服务器。当你使用 Claude Desktop 时,你可以直接说:“请查询我/projects目录下的schema.sql文件,然后根据它告诉我数据库中有哪些表。” Claude 会通过 MCP 协议读取文件内容,并调用 SQLite 工具执行查询,整个过程无需你手动配置复杂的 Function Call。

总结对比

特性Function CallSkillMCP
层级基础机制(原子操作)产品模块(功能集合)通信协议(基础设施)
目标让模型能调用单个外部函数为用户提供完整的、可复用的能力标准化模型与外部工具的交互方式
面向对象开发者终端用户 / 低代码开发者工具开发者 & AI 应用开发者
关键优势直接、灵活、广泛支持易用、可组合、端到端标准化、可发现、安全、资源感知
类比单个“积木”打包好的“乐高套装”统一的“积木连接接口标准”

维度Function CallSkillMCP
抽象层级模型原生接口应用功能模块通信协议标准
厂商绑定是(OpenAI/Anthropic 等)否(框架无关)否(开放标准)
互操作性低(各厂格式不同)中(依赖框架)高(统一协议)
开发复杂度低(直接用 API)中(需封装逻辑)中(需实现 server)
适用场景快速集成简单工具构建复杂 Agent企业级多模型/多工具集成
  • Function Call 是"脑":决定做什么
  • MCP 是"神经系统":传递信号到手脚
  • Skill 是"职业技能":知道如何专业地做事

关系与趋势

  • Skill 建立在 Function Call 之上:一个复杂的 Skill 内部会利用多次 Function Call 来完成工作。
  • MCP 可以视为 Function Call 的标准化演进:它提供了更丰富、更安全、更动态的工具调用和资源访问方式。未来,AI 应用的“Function Call”能力很可能通过 MCP 协议来实现。
  • MCP 赋能 Skill 开发:在支持 MCP 的平台上,开发 Skill 可以更简单,直接接入丰富的 MCP 服务器资源,而无需从零编写每一个函数。

演进趋势(截至 2026 年)

  1. 短期:Function Call + Skill 是主流(如 LangChain + OpenAI)。
  2. 中期:MCP 逐渐被 IDE(如 Cursor)、AI 平台(如 Databricks)采用,成为“AI 操作系统”的一部分。
  3. 长期:MCP 可能成为类似 HTTP 的基础协议——任何 AI 都能通过 MCP 访问世界上的服务。
💡 类比:Function Call ≈ 浏览器原生的 fetch()Skill ≈ 封装好的 Axios 或 SDKMCP ≈ RESTful API 标准 + OpenAPI 规范

总结

  • Function Call能力基础:没有它,LLM 无法与外部世界交互
  • MCP连接标准:没有它,每个工具都需要定制开发集成(N×M 问题)
  • Skill价值封装:没有它,AI 只是工具的执行者,而非业务专家




Read more

【Linux网络系列】:JSON+HTTP,用C++手搓一个web计算器服务器!

【Linux网络系列】:JSON+HTTP,用C++手搓一个web计算器服务器!

🔥 本文专栏:Linux网络Linux实践系列 🌸作者主页:努力努力再努力wz 💪 今日博客励志语录:别害怕选错,人生最遗憾的从不是‘选错了’,而是‘我本可以’。每一次推倒重来的勇气,都是在给灵魂贴上更坚韧的勋章。 ★★★ 本文前置知识: 序列化与反序列化 引入 在之前的博客中,我详细介绍了序列化 与反序列化 的概念。对于使用 TCP 协议进行通信的双方,由于 TCP 是面向字节流的,在发送数据之前,我们通常需要定义一种结构化的数据来描述传输内容,并以此作为数据的容器。在 C++ 中,这种结构化数据通常表现为对象或结构体。然而,我们不能直接将结构体内存中对应的字节原样发送到另一端,因为直接传递内存字节会引发字节序 和结构体内存对齐 的问题。不同平台、不同编译器所遵循的内存对齐规则可能不同,这可能导致接收方在解析结构体字段时出现错误。 因此,我们需要借助序列化 。序列化 是指将结构化的数据按照预定的规则转换为连续的字节流。其主要目的是屏蔽平台差异,使得位于不同平台的进程能够以统一的方式解析该字节流。序列化通常分为两种形式:文本序列化 与二进制序列化 。 文

超酷!前端人必备的 3 个 Skills:搞定高级 UI,拿捏最佳实践,最后一个直接拉满“续航”!

最近和几位前端开发者聊天,发现一个有趣的现象:AI 写代码越来越快,但代码质量的差距反而越来越大。 有人用 Cursor 写出来的页面,一眼就能看出是 AI 生成的——紫色渐变背景、Inter 字体、千篇一律的卡片布局。而有的人用同样的工具,却能产出让人眼前一亮的作品。 差距在哪里?不在 AI 工具本身,而在于你给 AI 注入了什么样的"技能包" 。 今天想分享前端开发必备的三个 Skills。前两个是干货分享,能立刻提升你的代码质量;第三个可能出乎你的意料,但确实是我最近的真实体会。 Skill 1: 让 AI 懂设计,告别"AI 味"的界面 你有没有遇到过这种情况——AI 生成的页面虽然能用,但总觉得哪里不对劲? 布局平庸、配色单调、

前端如何渲染 Markdown 格式:从基础到实战全指南

在前端开发中,我们常需要将 Markdown 文本(如接口文档、博客内容、用户评论)渲染成美观的 HTML 页面。不同于纯文本展示,Markdown 渲染需要借助专门的库解析语法规则,再结合样式实现可视化。本文将聚焦 “如何在前端页面中渲染 Markdown 内容”,从主流库选型到实战案例,带你快速掌握核心方法。 一、前端渲染 Markdown 的核心逻辑 Markdown 本质是 “轻量级标记语言”,无法直接被浏览器识别。前端渲染的核心流程是: 1. 解析:通过库将 Markdown 文本(如 # 标题)转换为 HTML 字符串(如 <h1>标题</h1>); 2. 渲染:将解析后的

Rust与WebAssembly深度实战——将高性能Rust代码运行在浏览器与Node.js

Rust与WebAssembly深度实战——将高性能Rust代码运行在浏览器与Node.js

Rust与WebAssembly深度实战——将高性能Rust代码运行在浏览器与Node.js 一、学习目标与重点 1.1 学习目标 1. 理解WebAssembly基础:深入掌握WebAssembly(Wasm/Wasmtime)的核心定义、运行机制、与JavaScript的性能对比 2. 掌握Rust到Wasm的编译:熟练使用wasm-pack、cargo-web等工具链,完成Rust代码到Wasm模块的编译、打包、优化 3. 精通Rust与JavaScript交互:实现双向交互(Rust调用JS函数、JS调用Rust函数),处理复杂数据类型(数组、对象、字符串),管理内存(Wasm线性内存的分配与释放) 4. 开发真实Wasm应用:编写浏览器端高性能任务(Canvas图像滤镜、WebGL计算辅助)、Node.js端计算密集型任务(图像处理、加密解密、数据压缩) 5. 优化Wasm模块:使用wasm-opt工具优化Wasm体积,学习代码分割、懒加载、模块缓存