AI 进化论:从 Function Calling 到 MCP

AI 进化论:从 Function Calling 到 MCP

AI 进化论:从 Function Calling 到 MCP,你的大模型还在“裸奔”吗?

在这里插入图片描述

文章目录

一、 给 AI 装上手脚:Function Calling 到底是个啥?

1. 专业解释与大白话解读

专业解释:Function Calling(函数调用) 是模型厂商(如 OpenAI、阿里云 Qwen)提供的私有接口功能。它允许开发者预定义一组工具(函数),当模型判断用户意图需要调用外部数据或执行特定操作时,它会输出符合函数签名的 ​**结构化参数(JSON)**​,由后端执行后再将结果反馈给模型生成最终回复。

大白话解读: 想象你雇了一个很有才华但没手没脚的“军师”(大模型)。如果你问他“今天外面几度?”,他只能瞎编。但如果你递给他一个温度计(Function),告诉他怎么读数,他就能先看温度计,再告诉你:“主公,外面 35 度,建议宅着。”

生活案例: 这就像点外卖。你(用户)对大模型说“我饿了”。大模型(外卖员)不会自己做饭,但他知道调用“美团下单”这个函数,填好“红烧肉”和“你的地址”,最后把热腾腾的饭菜送到你手里。

2. 核心功能与代码示例

在 Qwen-Agent 等框架中,Function Calling 可以实现实时数据获取、复杂数学计算和外部系统操作。

# 示例:一个简单的天气查询函数注册from qwen_agent.tools.base import BaseTool, register_tool @register_tool('get_weather')classWeatherTool(BaseTool): description ='获取指定城市的实时天气' parameters =[{'name':'city','type':'string','description':'城市名称,如:北京','required':True}]defcall(self, params:str,**kwargs)->str:# 这里模拟调用 APIimport json args = json.loads(params) city = args['city']returnf"{city}今天晴转多云,25度,适合摸鱼。"

二、 实战演练:搭建你的“门票数据助手”

1. 业务场景介绍

我们需要搭建一个能查询门票销量的助手。它基于 tkt_orders 数据表,包含订单时间、用户 ID、省份、订单金额等字段。

在这里插入图片描述

2. 进阶:一次调用,搞定查询 + 可视化

传统模式下,查数据和画图是分开的。但在进阶版 exc_sql 工具中,我们实现了 自动推断图表字段 并直接返回 Markdown 表格和图片。

核心逻辑实现:

  • SQL 查询: 执行 SQL 获取结果集 df
  • 自动绘图: 优先选字符串列做 X 轴,数值列做 Y 轴。
  • 样式设置: 自动处理标签倾斜 45 度,防止文字重叠。
# 自动推断并绘图的逻辑片段 x_candidates = df.select_dtypes(include=['object']).columns.tolist() x = x_candidates if x_candidates else df.columns y_fields = df.select_dtypes(include=['number']).columns.tolist()import matplotlib.pyplot as plt plt.figure(figsize=(8,5))for col in y_fields: plt.bar(df[x].astype(str), df[col], label=col) plt.xticks(rotation=45) plt.savefig('chart.png')

三、 MCP:AI 界的“USB-C”接口协议来了!

1. 什么是 MCP?

专业解释:Model Context Protocol (MCP) 是 Anthropic 推出的开放协议标准。它旨在标准化 LLM 与外部数据源、工具之间的交互方式,实现“一次开发,多模型兼容”。

大白话解读: 以前每个厂商的 AI 接口都不一样,像极了那个满地找充电线的年代(iPhone 是 Lightning,安卓是 Micro-USB)。​MCP 就是 AI 界的 USB-C​,管你是 Claude、GPT 还是 Qwen,只要插上这个“标准插口”,工具就能通通用起来!

2. MCP 核心架构

  • MCP Host: 运行 AI 的环境(如 Cursor, Claude Desktop)。
  • MCP Client: 负责发起请求的“翻译官”。
  • MCP Server: 提供具体功能的“工具库”。

AI模型/Host

MCP Client

MCP Server

高德地图API

本地数据库

GitHub/Slack


四、 玩转 MCP:从旅游攻略到桌面统计

1. CASE:高德地图旅游助手

通过配置 amap-maps-mcp-server,AI 可以自主调用关键词搜索、路径规划、天气查询等功能,直接为你生成一份详尽的大连一日游攻略,甚至帮你写好 HTML 网页呈现。

在这里插入图片描述

2. CASE:桌面 TXT 统计器(MCP SDK 实战)

使用 Python 的 FastMCP 框架,几行代码就能让 AI 拥有“查看你桌面文件”的超能力。

from pathlib import Path from mcp.server.fastmcp import FastMCP mcp = FastMCP("桌面统计器")@mcp.tool()defcount_desktop_txt_files()->int:"""统计桌面上 .txt 文件的数量""" desktop_path = Path("~/Desktop").expanduser()returnlen(list(desktop_path.glob("*.txt")))if __name__ =="__main__": mcp.run()

五、 脑洞大开:未来 3 大拓展方案

在原有功能的基础上,我们可以进一步把 AI 的“触角”伸向更远的地方:

  1. 智能家居“边缘大脑”:
    • 方案: 利用 MCP 协议连接本地 Home Assistant 服务器。
    • 价值: 告别云端延时。即便断网,你也能对 AI 说:“看我眼神行事,把卧室灯调成猛男粉。”
  2. AI 投资情报局:
    • 方案: 集成 Tavily 搜索 MCP + 实时股价 Function Calling。
    • 价值: AI 自动抓取半导体行业新闻,结合你本地的持仓数据,自动画出盈亏分析图并给出“割肉”建议。
  3. 自动化“代码裁缝”:
    • 方案: 开发一个具备文件修改权限的 MCP Server,接入 IDE。
    • 价值: 发现 Bug 后,AI 不仅仅是“建议”,它能直接“上手”改代码,测通后顺便帮你把 Jira 单子也关了。

六、 总结与互动引导

从私有的 Function Calling 到开放的 ​MCP​,AI 正在从“只会聊天的复读机”进化为“能干活的打工人”。底层能力的进化,意味着开发门槛的进一步降低。

在这里插入图片描述
看到这里的都是真爱!既然 AI 都能帮我统计桌面 TXT 了,你觉得它还有什么“离谱”的用途?A. 帮我自动回复老板的钉钉(要带幽默感那种)B. 监控我的心率,一旦看到心仪的妹子就自动帮我点外卖送花C. 自动识别代码里的屎山,并发出尖叫声

评论区留下你的脑洞,点赞最高的我考虑写个 Demo 出来!

转载声明

本文为原创内容。转载请注明出处,并保留原文链接。

参考链接

  1. Model Context Protocol 官方文档
  2. Qwen-Agent 开源仓库
  3. Tavily AI 搜索服务
  4. 高德开放平台

Read more

保姆级教程!零基础解锁大疆无人机开发:MSDK/PSDK/ 上云 API 实战指南[特殊字符]

保姆级教程!零基础解锁大疆无人机开发:MSDK/PSDK/ 上云 API 实战指南[特殊字符]

保姆级教程!零基础解锁大疆无人机开发:MSDK/PSDK/上云API实战指南🚁 摘要 作为无人机领域的「苹果生态」,大疆行业开发体系自2014年开放SDK以来,已吸引超10万开发者构建3000+行业解决方案。本文基于官方最新《行业生态入门指南》,深度解析MSDK移动端开发、PSDK负载硬件开发、上云API云端集成三大核心能力,附全流程资源清单与生态认证攻略,助你从「无人机小白」变身行业开发高手! 目录 * 一、大疆开发生态全景:为什么选择大疆二次开发? * 二、MSDK实战:5分钟开发你的首个无人机控制App * 三、PSDK硬核:让无人机秒变「万能挂载平台」 * 四、上云API进阶:构建无人机云端大脑 * 五、开发者必备:技术支持与生态认证全流程 一、大疆开发生态全景:为什么选择大疆二次开发? 🌟 生态优势 * 低门槛:无需自研飞控算法,直接调用大疆底层能力(如飞行稳定、图传通信); * 高兼容:支持Matrice 350 RTK、

基于FPGA的CARRY4 抽头延迟链TDC延时仿真

基于FPGA的CARRY4 抽头延迟链TDC延时仿真

基于FPGA的CARRY4 抽头延迟链TDC延时仿真 1 摘要 基于 FPGA 的 CARRY4 抽头延迟链 TDC,核心是利用 Xilinx FPGA 中 CARRY4 进位单元的固定、低抖动级联延迟构建抽头延迟线,通过锁存信号传播位置实现亚纳秒级时间测量,单级进位延迟约 10–30 ps,级联后可覆盖更大时间量程并结合粗计数拓展动态范围。TDC设计利用FPGA的专用进位链硬件,实现了亚纳秒级的时间测量精度,这是传统数字方法无法达到的。虽然需要校准,但其性能优势和数字集成的便利性使其成为高精度时间测量的首选方案。 2 CARRY4 核心结构与抽头延迟链原理 2.1 CARRY4 单元结构(Xilinx 7 系列 / UltraScale) 每个 CARRY4 包含 4 个 MUXCY 进位选择器与 4 个 XORCY 异或门,

Telegram中文生态探索:@letstgbot 中文群组频道搜索机器人的技术解析与开发实践

Telegram中文生态探索:@letstgbot 中文群组频道搜索机器人的技术解析与开发实践

在Telegram(简称TG)这个全球化的即时通讯平台上,中文用户群体日益壮大。然而,由于Telegram官方搜索功能对中文支持有限,许多用户在寻找高质量群组、频道、机器人或贴纸时常常面临“找群难、找资源更难”的痛点。@letstgbot(LetsTG官方搜索机器人)正是针对这一场景诞生的开源友好型中文搜索引擎工具。它通过Telegram Bot机制,为用户提供高效、精准的中文社群发现服务。本文将从技术原理、使用方法、API集成到二次开发实践,全方位解析@letstgbot,帮助开发者与普通用户更好地理解和利用这一工具,同时也分享Telegram Bot开发的通用知识点。 一、Telegram中文搜索的背景与挑战 Telegram作为MTProto协议驱动的开源通讯软件,其生态高度依赖用户自建群组与频道。中文用户主要集中在科技、学习、资源分享、兴趣爱好等领域,但官方搜索仅支持英文关键词的精确匹配,对中文分词、模糊语义的支持较弱。这导致:新手难以快速发现优质中文社群;群管理员难以有效推广自己的群组/频道;开发者难以构建智能化的社群推荐系统。 LetsTG平台(官网letstg.c

Flutter 三方库 bavard 的鸿蒙化适配指南 - 实现语义化的聊天消息协议、支持机器人自动回复逻辑与分布式通讯元数据封装

Flutter 三方库 bavard 的鸿蒙化适配指南 - 实现语义化的聊天消息协议、支持机器人自动回复逻辑与分布式通讯元数据封装

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 bavard 的鸿蒙化适配指南 - 实现语义化的聊天消息协议、支持机器人自动回复逻辑与分布式通讯元数据封装 前言 在进行 Flutter for OpenHarmony 的社交或客户支持类应用开发时,除了核心的 WebSocket 传输,如何规范化定义“消息(Message)”的数据结构以及处理复杂的对话逻辑状态,往往决定了项目的后期维护性。bavard 是一个专为高度语义化聊天交互设计的协议封装库。它能让你在鸿蒙端以极具逻辑感的对象模型来驱动对话流。本文将带大家了解如何利用 bavard 构建标准化的聊天架构。 一、原理解析 / 概念介绍 1.1 基础原理 bavard 将一次对话拆解为“参与者(Participants)”、“话题(Topics)”和“原子消息(Discrete Messages)”。它提供了一套完整的状态机,用于驱动从“