AI 中的skill、mcp和 Function Call

AI 中的skill、mcp和 Function Call

 Skill(技能)MCP(模型上下文协议) 和 Function Call(函数调用) 这三个概念。

简单来说,你可以这样理解:

  • Function Call 是基础的、标准的“能力调用机制”。
  • Skill 是面向用户的、打包好的“功能产品”。
  • MCP 是连接 AI 与外部资源和工具的“新一代通信协议”。

1. Function Call(函数调用)

这是最基础、最广泛使用的概念,主要由 OpenAI 在 2023 年 6 月引入并普及。

  • 是什么: 一种让大语言模型(如 GPT-4)能够智能地决定在何时、以何种参数调用开发者预先定义好的函数(或工具) 的机制。它不是直接执行代码,而是输出一个结构化的调用请求。
  • 如何工作
    1. 定义: 开发者向模型描述一系列可用的函数(包括函数名、描述、参数列表及参数类型)。
    2. 决策: 用户提问后,模型根据对话上下文判断是否需要调用函数,以及调用哪个函数、参数是什么。
    3. 响应: 模型返回一个结构化的 JSON 对象(如 {“name”: “get_weather”, “arguments”: {“location”: “Beijing”}}),而不是自然语言。
    4. 执行: 应用程序收到这个 JSON 后,在本地或服务器端实际执行对应的代码,获取结果(如调用天气 API)。
    5. 回复: 将执行结果返回给模型,模型再组织成自然语言回复给用户。
  • 特点
    • 标准化: 已成为众多模型(OpenAI, Anthropic, 国内大模型等)支持的标准特性。
    • 核心机制: 是实现 AI 与外部世界交互的基石。
    • 开发层: 主要面向开发者,用户感知不强。

示例:你问“北京天气怎么样?”,模型不是瞎猜,而是“调用”了你定义的 get_weather(location) 函数,并将 API 返回的真实数据告诉你。


2. Skill(技能)

这是一个更高层、更产品化的概念,常见于 AI 智能体(AI Agent)和 AI 应用平台(如扣子/Coze, GPTs, Dify)。

  • 是什么: 一个封装好的、可重复使用的功能模块或 AI 能力。一个 Skill 内部可能包含提示词、知识库、一个或多个 Function Call、工作流等。
  • 如何工作
    1. 构建: 在平台上通过可视化或配置化的方式,将一个完整的能力打包。例如,一个“订机票”Skill 可能包含:查询航班、获取价格、填写订单等多个步骤或函数。
    2. 调用: 用户通过自然语言触发(如“我想去上海”),AI 智能体自动识别并调用最匹配的 Skill。
    3. 执行: Skill 作为一个整体在后台运行,可能串联多个动作,最终返回结果。
  • 特点
    • 产品化: 是终端用户可以直接理解和使用的东西(如“翻译技能”、“画图技能”)。
    • 可组合性: 可以在智能体中安装多个 Skills,让它具备多种能力。
    • 封装性: 隐藏了底层复杂的函数调用和逻辑,提供端到端的体验。

示例:在 Coze 平台上,你安装了一个“全网搜索” Skill。当用户问“最近有什么科技新闻?”时,你的 Bot 会自动使用这个 Skill 去搜索并返回结果。这个 Skill 底层就是通过 Function Call 来调用搜索 API。


3. MCP(Model Context Protocol,模型上下文协议)

这是一个由 Anthropic 提出并主导的开放协议,旨在标准化 AI 模型与外部资源(服务器、数据库、API 等)的交互方式。可以看作是 Function Call 的“进化版”或“标准化版本”。

  • 是什么: 一个客户端-服务器协议。它定义了一套标准,让任何兼容 MCP 的“服务器”(提供资源的工具)都能轻松地被任何兼容 MCP 的“客户端”(AI 应用或 IDE)使用。
  • 如何工作
    1. 服务器: 任何工具(如文件系统、数据库、日历 API)都可以实现为 MCP 服务器,它向客户端宣告自己提供哪些“资源”和“工具”。
    2. 客户端: AI 应用(如 Claude Desktop, Cursor IDE)作为 MCP 客户端,启动时可以连接一个或多个 MCP 服务器。
    3. 通信: 客户端和服务器通过标准的 JSON-RPC 消息进行通信。当用户需要时,客户端会从服务器获取资源列表或调用工具,并将结果提供给 AI 模型。
  • 特点
    • 协议化与标准化: 解决了不同 AI 模型和工具之间“各自为政”的问题。工具开发者只需实现一次 MCP 接口,就能被所有支持 MCP 的 AI 使用。
    • 动态发现: 客户端可以动态地发现服务器提供的工具,无需在提示词中硬编码。
    • 资源概念: 不仅限于“工具/函数”,还引入了“资源”(如文件、数据库条目)的概念,AI 可以读取资源内容作为上下文。
    • 安全性: 连接通常本地化,资源访问可控,比传统的将 API 密钥暴露给模型更安全。

示例: 你在本地运行了一个 sqlite MCP 服务器和一个 filesystem MCP 服务器。当你使用 Claude Desktop 时,你可以直接说:“请查询我/projects目录下的schema.sql文件,然后根据它告诉我数据库中有哪些表。” Claude 会通过 MCP 协议读取文件内容,并调用 SQLite 工具执行查询,整个过程无需你手动配置复杂的 Function Call。

总结对比

特性Function CallSkillMCP
层级基础机制(原子操作)产品模块(功能集合)通信协议(基础设施)
目标让模型能调用单个外部函数为用户提供完整的、可复用的能力标准化模型与外部工具的交互方式
面向对象开发者终端用户 / 低代码开发者工具开发者 & AI 应用开发者
关键优势直接、灵活、广泛支持易用、可组合、端到端标准化、可发现、安全、资源感知
类比单个“积木”打包好的“乐高套装”统一的“积木连接接口标准”

维度Function CallSkillMCP
抽象层级模型原生接口应用功能模块通信协议标准
厂商绑定是(OpenAI/Anthropic 等)否(框架无关)否(开放标准)
互操作性低(各厂格式不同)中(依赖框架)高(统一协议)
开发复杂度低(直接用 API)中(需封装逻辑)中(需实现 server)
适用场景快速集成简单工具构建复杂 Agent企业级多模型/多工具集成
  • Function Call 是"脑":决定做什么
  • MCP 是"神经系统":传递信号到手脚
  • Skill 是"职业技能":知道如何专业地做事

关系与趋势

  • Skill 建立在 Function Call 之上:一个复杂的 Skill 内部会利用多次 Function Call 来完成工作。
  • MCP 可以视为 Function Call 的标准化演进:它提供了更丰富、更安全、更动态的工具调用和资源访问方式。未来,AI 应用的“Function Call”能力很可能通过 MCP 协议来实现。
  • MCP 赋能 Skill 开发:在支持 MCP 的平台上,开发 Skill 可以更简单,直接接入丰富的 MCP 服务器资源,而无需从零编写每一个函数。

演进趋势(截至 2026 年)

  1. 短期:Function Call + Skill 是主流(如 LangChain + OpenAI)。
  2. 中期:MCP 逐渐被 IDE(如 Cursor)、AI 平台(如 Databricks)采用,成为“AI 操作系统”的一部分。
  3. 长期:MCP 可能成为类似 HTTP 的基础协议——任何 AI 都能通过 MCP 访问世界上的服务。
💡 类比:Function Call ≈ 浏览器原生的 fetch()Skill ≈ 封装好的 Axios 或 SDKMCP ≈ RESTful API 标准 + OpenAPI 规范

总结

  • Function Call能力基础:没有它,LLM 无法与外部世界交互
  • MCP连接标准:没有它,每个工具都需要定制开发集成(N×M 问题)
  • Skill价值封装:没有它,AI 只是工具的执行者,而非业务专家




Read more

Spring Cloud + AI:微服务架构下的智能路由、故障自愈、日志分析

Spring Cloud + AI:微服务架构下的智能路由、故障自愈、日志分析

在云原生时代,微服务架构的复杂性带来了路由决策、故障恢复、日志排查三大痛点。将 AI 能力融入 Spring Cloud 生态,可以显著提升系统的自适应能力和运维效率。本文将围绕智能路由、故障自愈、智能日志分析三大场景,给出完整的架构设计与代码实现。 一、整体架构 智能路由 智能路由 智能路由 指标上报 指标上报 指标上报 实时指标 服务状态 路由权重 熔断指令 日志输出 日志输出 日志输出 异常日志 告警/报告 客户端请求 Spring Cloud Gateway + AI 路由策略 服务 A 服务 B 服务 C Nacos 服务注册中心 Prometheus + Grafana AI

AI安全高阶:AI模型可解释性与安全防护的结合

AI安全高阶:AI模型可解释性与安全防护的结合

AI安全高阶:AI模型可解释性与安全防护的结合 📝 本章学习目标:本章深入探讨高阶主题,适合有一定基础的读者深化理解。通过本章学习,你将全面掌握"AI安全高阶:AI模型可解释性与安全防护的结合"这一核心主题。 一、引言:为什么这个话题如此重要 在AI技术快速发展的今天,AI安全高阶:AI模型可解释性与安全防护的结合已经成为每个AI从业者和企业管理者必须了解的核心知识。随着AI应用的深入,安全风险、合规要求、治理挑战日益凸显,掌握这些知识已成为AI时代的基本素养。 1.1 背景与意义 💡 核心认知:AI安全、合规与治理是AI健康发展的三大基石。安全是底线,合规是保障,治理是方向。三者相辅相成,缺一不可。 近年来,AI安全事件频发,合规要求日益严格,治理挑战不断升级。从数据泄露到算法歧视,从隐私侵犯到伦理争议,AI发展面临前所未有的挑战。据统计,超过60%的企业在AI应用中遇到过安全或合规问题,造成的经济损失高达数十亿美元。 1.2 本章结构概览 为了帮助读者系统性地掌握本章内容,我将从以下几个维度展开:

字节跳动重磅开源 DeerFlow 2.0:从深度研究助手到超级智能体执行底座,AI Agent 时代的新王者来了!

字节跳动重磅开源 DeerFlow 2.0:从深度研究助手到超级智能体执行底座,AI Agent 时代的新王者来了!

大家好,我是你的AI技术观察者。今天要给大家带来一个超级重磅的开源项目——bytedance/deer-flow(DeerFlow 2.0)。 2026年2月底,字节跳动突然把DeerFlow 2.0推向开源社区,结果上线短短24小时就冲上GitHub Trending第一名,短短几天内星星数暴涨到几万(部分报道显示已超35k甚至更高),成为2026年开年最火的AI Agent框架之一。为什么它这么火?因为它不只是一个“会聊天的AI”,而是一个能真正长时间自主执行复杂任务的Super Agent Harness(超级智能体执行底座)。 「所有模型+工作流链接」 链接:https://pan.quark.cn/s/2bbad26833fc   DeerFlow是什么?Deep Exploration and Efficient Research Flow DeerFlow的全称是 Deep Exploration and Efficient Research Flow(深度探索与高效研究流)。它最初是字节跳动内部用于自动化深度研究和信息汇总的工具,

别等这波 AI 算力浪潮过去才后悔:CANN 应该学什么?

别等这波 AI 算力浪潮过去才后悔:CANN 应该学什么?

别等这波 AI 算力浪潮过去才后悔:CANN 应该学什么? 昇腾 CANN 这几年是真在 “狂飙”,生态越做越大、功能越来越多、文档越写越厚…… 但问题也随之出现: CANN 支持 Python、C++、AscendCL、TBE、MindSpore、PyTorch Frontend、Kernel DSL……这么多"语言",到底学哪个?从哪入门? 别急,今天就给你一次性讲透,看完不再迷茫。 CANN 语言体系到底有多复杂? 整个 CANN 软件栈由多层 API 和 Kernel 构成,所以才会出现一堆「看似不同,实则分工明确」的语言接口 为了简化理解,我们可以把它粗暴分成三层: * 高层:框架调用