AI 进化论:从 Function Calling 到 MCP

AI 进化论:从 Function Calling 到 MCP

AI 进化论:从 Function Calling 到 MCP,你的大模型还在“裸奔”吗?

在这里插入图片描述

文章目录

一、 给 AI 装上手脚:Function Calling 到底是个啥?

1. 专业解释与大白话解读

专业解释:Function Calling(函数调用) 是模型厂商(如 OpenAI、阿里云 Qwen)提供的私有接口功能。它允许开发者预定义一组工具(函数),当模型判断用户意图需要调用外部数据或执行特定操作时,它会输出符合函数签名的 ​**结构化参数(JSON)**​,由后端执行后再将结果反馈给模型生成最终回复。

大白话解读: 想象你雇了一个很有才华但没手没脚的“军师”(大模型)。如果你问他“今天外面几度?”,他只能瞎编。但如果你递给他一个温度计(Function),告诉他怎么读数,他就能先看温度计,再告诉你:“主公,外面 35 度,建议宅着。”

生活案例: 这就像点外卖。你(用户)对大模型说“我饿了”。大模型(外卖员)不会自己做饭,但他知道调用“美团下单”这个函数,填好“红烧肉”和“你的地址”,最后把热腾腾的饭菜送到你手里。

2. 核心功能与代码示例

在 Qwen-Agent 等框架中,Function Calling 可以实现实时数据获取、复杂数学计算和外部系统操作。

# 示例:一个简单的天气查询函数注册from qwen_agent.tools.base import BaseTool, register_tool @register_tool('get_weather')classWeatherTool(BaseTool): description ='获取指定城市的实时天气' parameters =[{'name':'city','type':'string','description':'城市名称,如:北京','required':True}]defcall(self, params:str,**kwargs)->str:# 这里模拟调用 APIimport json args = json.loads(params) city = args['city']returnf"{city}今天晴转多云,25度,适合摸鱼。"

二、 实战演练:搭建你的“门票数据助手”

1. 业务场景介绍

我们需要搭建一个能查询门票销量的助手。它基于 tkt_orders 数据表,包含订单时间、用户 ID、省份、订单金额等字段。

在这里插入图片描述

2. 进阶:一次调用,搞定查询 + 可视化

传统模式下,查数据和画图是分开的。但在进阶版 exc_sql 工具中,我们实现了 自动推断图表字段 并直接返回 Markdown 表格和图片。

核心逻辑实现:

  • SQL 查询: 执行 SQL 获取结果集 df
  • 自动绘图: 优先选字符串列做 X 轴,数值列做 Y 轴。
  • 样式设置: 自动处理标签倾斜 45 度,防止文字重叠。
# 自动推断并绘图的逻辑片段 x_candidates = df.select_dtypes(include=['object']).columns.tolist() x = x_candidates if x_candidates else df.columns y_fields = df.select_dtypes(include=['number']).columns.tolist()import matplotlib.pyplot as plt plt.figure(figsize=(8,5))for col in y_fields: plt.bar(df[x].astype(str), df[col], label=col) plt.xticks(rotation=45) plt.savefig('chart.png')

三、 MCP:AI 界的“USB-C”接口协议来了!

1. 什么是 MCP?

专业解释:Model Context Protocol (MCP) 是 Anthropic 推出的开放协议标准。它旨在标准化 LLM 与外部数据源、工具之间的交互方式,实现“一次开发,多模型兼容”。

大白话解读: 以前每个厂商的 AI 接口都不一样,像极了那个满地找充电线的年代(iPhone 是 Lightning,安卓是 Micro-USB)。​MCP 就是 AI 界的 USB-C​,管你是 Claude、GPT 还是 Qwen,只要插上这个“标准插口”,工具就能通通用起来!

2. MCP 核心架构

  • MCP Host: 运行 AI 的环境(如 Cursor, Claude Desktop)。
  • MCP Client: 负责发起请求的“翻译官”。
  • MCP Server: 提供具体功能的“工具库”。

AI模型/Host

MCP Client

MCP Server

高德地图API

本地数据库

GitHub/Slack


四、 玩转 MCP:从旅游攻略到桌面统计

1. CASE:高德地图旅游助手

通过配置 amap-maps-mcp-server,AI 可以自主调用关键词搜索、路径规划、天气查询等功能,直接为你生成一份详尽的大连一日游攻略,甚至帮你写好 HTML 网页呈现。

在这里插入图片描述

2. CASE:桌面 TXT 统计器(MCP SDK 实战)

使用 Python 的 FastMCP 框架,几行代码就能让 AI 拥有“查看你桌面文件”的超能力。

from pathlib import Path from mcp.server.fastmcp import FastMCP mcp = FastMCP("桌面统计器")@mcp.tool()defcount_desktop_txt_files()->int:"""统计桌面上 .txt 文件的数量""" desktop_path = Path("~/Desktop").expanduser()returnlen(list(desktop_path.glob("*.txt")))if __name__ =="__main__": mcp.run()

五、 脑洞大开:未来 3 大拓展方案

在原有功能的基础上,我们可以进一步把 AI 的“触角”伸向更远的地方:

  1. 智能家居“边缘大脑”:
    • 方案: 利用 MCP 协议连接本地 Home Assistant 服务器。
    • 价值: 告别云端延时。即便断网,你也能对 AI 说:“看我眼神行事,把卧室灯调成猛男粉。”
  2. AI 投资情报局:
    • 方案: 集成 Tavily 搜索 MCP + 实时股价 Function Calling。
    • 价值: AI 自动抓取半导体行业新闻,结合你本地的持仓数据,自动画出盈亏分析图并给出“割肉”建议。
  3. 自动化“代码裁缝”:
    • 方案: 开发一个具备文件修改权限的 MCP Server,接入 IDE。
    • 价值: 发现 Bug 后,AI 不仅仅是“建议”,它能直接“上手”改代码,测通后顺便帮你把 Jira 单子也关了。

六、 总结与互动引导

从私有的 Function Calling 到开放的 ​MCP​,AI 正在从“只会聊天的复读机”进化为“能干活的打工人”。底层能力的进化,意味着开发门槛的进一步降低。

在这里插入图片描述
看到这里的都是真爱!既然 AI 都能帮我统计桌面 TXT 了,你觉得它还有什么“离谱”的用途?A. 帮我自动回复老板的钉钉(要带幽默感那种)B. 监控我的心率,一旦看到心仪的妹子就自动帮我点外卖送花C. 自动识别代码里的屎山,并发出尖叫声

评论区留下你的脑洞,点赞最高的我考虑写个 Demo 出来!

转载声明

本文为原创内容。转载请注明出处,并保留原文链接。

参考链接

  1. Model Context Protocol 官方文档
  2. Qwen-Agent 开源仓库
  3. Tavily AI 搜索服务
  4. 高德开放平台

Read more

Ubuntu/Debian VPS 上 Apache Web 服务器的完整配置教程

Apache 是互联网上最流行的 Web 服务器之一,用于托管超过半数活跃网站。尽管市面上存在许多可用的 Web 服务器,但由于 Apache 的普遍性,了解其工作原理仍然具有重要意义。 本文将分享 Apache 的通用配置文件及其可配置选项。文中将以 Ubuntu/Debian 系统的 Apache 文件布局为例进行说明,这种布局方式与其他 Linux 发行版的配置层级结构有所不同。 版本兼容性 说明 :本教程已在 Ubuntu 22.04 LTS、Ubuntu 24.04 LTS、Ubuntu 25.04 以及 Debian 11、Debian 12 系统上通过验证测试。所有展示的命令和配置均兼容上述版本,且 Apache 配置结构与命令(如 a2ensite、

前端存储三剑客:localStorage、sessionStorage、cookie 超详细对比

前端存储三剑客:localStorage、sessionStorage、cookie 超详细对比

在前端开发中,数据本地存储是提升用户体验、优化性能、实现持久化状态的核心技术。我们最常用的就是 localStorage、sessionStorage 和 cookie 这三种方案,但很多开发者容易混淆它们的用法、存储特性和适用场景。 这篇博客就用最清晰、最实用的方式,一次性讲透三者的区别、用法和最佳实践。 一、先搞懂核心概念 * cookie:最早的客户端存储方案,会随 HTTP 请求自动发送到服务器,主要用于身份验证、会话保持。 * localStorage:HTML5 新增的本地存储,持久化存储,手动清除才会消失,不参与网络请求。 * sessionStorage:HTML5 新增的会话存储,页面会话期间有效,关闭标签页 / 浏览器就清空。 二、核心区别一张表看懂 表格 特性localStoragesessionStoragecookie生命周期永久有效,手动清除仅当前会话(关闭标签 / 浏览器失效)可设置过期时间,默认会话级存储容量约 5MB约 5MB很小,仅 4KB与服务端通信不参与不参与自动携带在

我用 Vibe Code 做出了漂亮的 Web 应用,但 AI 依然无法为 Google Search 自动生成一个简单的 Sitemap

我用 Vibe Code 做出了漂亮的 Web 应用,但 AI 依然无法为 Google Search 自动生成一个简单的 Sitemap 在最近一段时间里,我看到很多开发者和创业者开始用 AI 工具做网站、Web 应用这些东西,比如所谓的 vibe coding 平台:快速生成页面、美观的前端、自动部署等等。乍一看体验很棒,但当你开始关注 SEO 和搜索引擎索引时,这一切就变得很不那么简单了。 我自己做过很多网站的 SEO,这本应该是个“十分钟搞定”的事儿 —— “生成 sitemap.xml,提交到 Google Search Console,搞定。” 但是在实际操作中,问题远比想象复杂。 项目背景 我做的第一个项目是一个在线餐厅目录:收集了所有提供食物过敏菜单的餐厅信息,供过敏患者快速查询。

Qwen3-1.7B支持流式响应?实战验证与前端集成教程

Qwen3-1.7B支持流式响应?实战验证与前端集成教程 最近在折腾大模型应用开发,特别是想给前端加个实时聊天的效果,就一直在找支持流式输出的轻量级模型。Qwen3系列开源后,我第一时间注意到了1.7B这个版本——参数小,部署快,但官方文档里关于流式响应的说明不太详细。 所以,我决定自己动手验证一下:Qwen3-1.7B到底支不支持流式响应?如果支持,怎么在前端项目里用起来?这篇文章就是我的实战记录,从环境搭建、接口测试到前端集成,一步步带你走通整个流程。 1. 环境准备与快速启动 要在本地或者云端快速体验Qwen3-1.7B,最省事的方法就是直接用现成的Docker镜像。这里我以ZEEKLOG星图平台的镜像为例,带你快速启动一个可用的环境。 1.1 启动Jupyter Notebook环境 1. 找到Qwen3-1.7B的镜像并启动。平台通常会提供一个预装好所有依赖的容器。 2. 容器启动后,直接打开提供的Jupyter Notebook链接。你会看到一个熟悉的网页界面,里面已经配置好了Python环境和必要的库。 这样,我们就不用操心安装PyTorch、Tran