LangGraph工具调用实战:手把手教你实现ReAct搜索机器人

LangGraph工具调用实战:手把手教你实现ReAct搜索机器人

## 前言

在前两篇文章中,我们分别学习了 LangGraph 的快速入门和 StateGraph 基础。本文将带你进入 LangGraph 的进阶领域——**工具调用(Tool Calling)**。通过为聊天机器人添加 Tavily 搜索引擎,你将掌握 ReAct(Reasoning + Acting)模式的完整实现,让 AI 能够主动调用外部工具获取实时信息。

---

## 一、核心概念

### 1.1 什么是工具调用

工具调用(Tool Calling)是 LLM 的重要能力,它允许 AI:

1. **推理(Reasoning)**:理解用户需求,判断需要什么信息

2. **行动(Acting)**:调用外部工具获取数据

3. **观察(Observation)**:整合工具结果生成回答

这就是经典的 **ReAct 模式**。

### 1.2 为什么需要工具调用

| 场景 | 纯 LLM | 带工具调用的 LLM |

|------|--------|-----------------|

| 实时信息 | ❌ 知识截止,无法回答 | ✅ 调用搜索工具获取 |

| 数学计算 | ❌ 容易出错 | ✅ 调用计算器精确计算 |

| 数据库查询 | ❌ 无法访问 | ✅ 调用 SQL 工具查询 |

| API 调用 | ❌ 无法执行 | ✅ 调用 API 工具操作 |

工具调用让 AI 从"纸上谈兵"变为"实干家"。

### 1.3 核心组件

```

┌─────────────────────────────────────────────────────────┐

│                    工具调用架构                          │

├─────────────────────────────────────────────────────────┤

│  1. 工具定义        │  TavilySearch、Calculator 等      │

│  2. 工具绑定        │  llm.bind_tools(tools)            │

│  3. 工具节点        │  BasicToolNode 执行工具调用       │

│  4. 条件路由        │  route_tools 判断是否需要工具     │

│  5. 循环执行        │  chatbot ↔ tools 形成 ReAct 循环 │

└─────────────────────────────────────────────────────────┘

```

---

## 二、环境准备

### 2.1 安装依赖

```bash

pip install langgraph langchain langchain-openai langchain-community pydantic python-dotenv typing-extensions

```

### 2.2 配置 API 密钥

创建 `.env` 文件:

```env

# 硅基流动平台 API 密钥

SILICONFLOW_API_KEY=your_siliconflow_key

# Tavily 搜索引擎 API 密钥

TAVILY_API_KEY=your_tavily_key

```

**获取 Tavily API Key**:访问 [Tavily](https://tavily.com/) 注册获取免费 API Key。

---

## 三、代码实现

### 3.1 完整代码

```python

"""

LangGraph 教程 - 为聊天机器人添加工具

本示例演示如何为 StateGraph 聊天机器人添加网页搜索工具。

当聊天机器人无法凭记忆回答问题时,可以使用工具查找相关信息。

官方教程地址:https://langchain-ai.github.io/langgraph/tutorials/introduction/

"""

# 过滤警告信息

import warnings

warnings.filterwarnings("ignore", category=DeprecationWarning)

warnings.filterwarnings("ignore", category=UserWarning)

from typing import Annotated

from typing_extensions import TypedDict

from langgraph.graph import StateGraph, START, END

from langgraph.graph.message import add_messages

from langchain_openai import ChatOpenAI

from langchain_core.messages import ToolMessage

from langchain_community.tools.tavily_search import TavilySearchResults

from dotenv import load_dotenv

import json

import os

# 加载环境变量

load_dotenv()

# 检查 Tavily API Key 是否设置

if not os.getenv("TAVILY_API_KEY"):

    raise ValueError("TAVILY_API_KEY 未设置,请在 .env 文件中配置")


 

# ==================== 1. 定义状态 ====================

class State(TypedDict):

    """

    定义图的状态结构。

   

    messages: 消息列表,使用 add_messages reducer 函数

              确保新消息追加到列表,而不是覆盖

    """

    messages: Annotated[list, add_messages]


 

# ==================== 2. 定义工具节点 ====================

class BasicToolNode:

    """

    工具节点:运行 LLM 请求的工具。

   

    检查状态中的最新消息,如果消息包含 tool_calls,

    则调用相应的工具。

    """

    def __init__(self, tools: list) -> None:

        """

        初始化工具节点。

       

        Args:

            tools: 工具列表

        """

        self.tools_by_name = {tool.name: tool for tool in tools}

    def __call__(self, inputs: dict):

        """

        执行工具调用。

       

        Args:

            inputs: 包含消息列表的字典

           

        Returns:

            包含工具执行结果的消息字典

        """

        if messages := inputs.get("messages", []):

            message = messages[-1]

        else:

            raise ValueError("No message found in input")

       

        outputs = []

        for tool_call in message.tool_calls:

            # 调用工具

            tool_result = self.tools_by_name[tool_call["name"]].invoke(

                tool_call["args"]

            )

            # 创建工具消息

            outputs.append(

                ToolMessage(

                    content=json.dumps(tool_result, ensure_ascii=False),

                    name=tool_call["name"],

                    tool_call_id=tool_call["id"],

                )

            )

        return {"messages": outputs}


 

# ==================== 3. 定义路由函数 ====================

def route_tools(state: State):

    """

    条件边路由函数。

   

    检查聊天机器人输出中是否包含 tool_calls。

    - 如果有工具调用,路由到 "tools" 节点

    - 如果没有,路由到 END(结束)

   

    Args:

        state: 当前图状态

       

    Returns:

        下一个节点的名称或 END

    """

    if isinstance(state, list):

        ai_message = state[-1]

    elif messages := state.get("messages", []):

        ai_message = messages[-1]

    else:

        raise ValueError(f"No messages found in input state to tool_edge: {state}")

   

    # 检查是否有工具调用

    if hasattr(ai_message, "tool_calls") and len(ai_message.tool_calls) > 0:

        return "tools"

    return END


 

# ==================== 4. 搜索工具 ====================

# 使用 Tavily 真实搜索工具

# 需要安装: pip install langchain-community

# Tavily API Key 已在上面的代码中设置


 

# ==================== 5. 创建图 ====================

def create_graph():

    """

    创建并编译 StateGraph。

   

    Returns:

        编译后的图对象

    """

    # 创建图构建器

    graph_builder = StateGraph(State)

   

    # 初始化模型

    llm = ChatOpenAI(

        model="Qwen/Qwen3-Next-80B-A3B-Instruct",

        openai_api_key=os.getenv("SILICONFLOW_API_KEY"),

        openai_api_base="https://api.siliconflow.cn/v1",

        temperature=0.7

    )

   

    # 创建 Tavily 搜索工具

    tool = TavilySearchResults(max_results=2)

    tools = [tool]

   

    # 绑定工具到 LLM

    llm_with_tools = llm.bind_tools(tools)

   

    # 定义聊天机器人节点

    def chatbot(state: State):

        """

        聊天机器人节点。

       

        Args:

            state: 当前状态

           

        Returns:

            包含 LLM 响应的字典

        """

        return {"messages": [llm_with_tools.invoke(state["messages"])]}

   

    # 添加节点

    graph_builder.add_node("chatbot", chatbot)

   

    # 创建工具节点并添加

    tool_node = BasicToolNode(tools=tools)

    graph_builder.add_node("tools", tool_node)

   

    # 添加边

    graph_builder.add_edge(START, "chatbot")

   

    # 添加条件边:从 chatbot 到 tools 或 END

    graph_builder.add_conditional_edges(

        "chatbot",

        route_tools,

        {"tools": "tools", END: END}

    )

   

    # 添加边:从 tools 回到 chatbot(形成循环)

    graph_builder.add_edge("tools", "chatbot")

   

    # 编译图

    return graph_builder.compile()


 

# ==================== 6. 运行聊天机器人 ====================

def stream_graph_updates(graph, user_input: str):

    """

    流式处理图更新。

   

    Args:

        graph: 编译后的图对象

        user_input: 用户输入的消息

    """

    for event in graph.stream({"messages": [{"role": "user", "content": user_input}]}):

        for value in event.values():

            if "messages" in value:

                last_message = value["messages"][-1]

                # 只打印 AI 消息,不打印工具消息

                if hasattr(last_message, "content") and last_message.content:

                    if not isinstance(last_message, ToolMessage):

                        print("助手:", last_message.content)


 

def main():

    """主函数 - 运行交互式聊天机器人。"""

    print("🤖 LangGraph 工具增强聊天机器人已启动!")

    print("=" * 50)

    print("提示:")

    print("  - 输入 'quit'、'exit' 或 'q' 退出对话")

    print("  - 聊天机器人可以使用搜索工具回答实时问题\n")

   

    # 创建图

    graph = create_graph()

   

    while True:

        try:

            # 获取用户输入

            user_input = input("用户: ")

           

            # 检查退出命令

            if user_input.lower() in ["quit", "exit", "q"]:

                print("\n👋 再见!")

                break

           

            # 处理用户输入并获取响应

            stream_graph_updates(graph, user_input)

            print()  # 空行分隔对话

           

        except KeyboardInterrupt:

            print("\n\n👋 再见!")

            break

        except Exception as e:

            print(f"发生错误: {e}")

            break


 

if __name__ == "__main__":

    main()

```

### 3.2 代码解析

#### 3.2.1 工具绑定

```python

# 创建 Tavily 搜索工具

tool = TavilySearchResults(max_results=2)

tools = [tool]

# 绑定工具到 LLM

llm_with_tools = llm.bind_tools(tools)

```

**关键点**:

- `bind_tools()` 将工具信息注入 LLM 的系统提示

- LLM 根据用户输入判断是否需要调用工具

- 如果需要,LLM 输出包含 `tool_calls` 的特殊消息

#### 3.2.2 工具节点实现

```python

class BasicToolNode:

    def __init__(self, tools: list) -> None:

        # 创建工具名称到工具对象的映射

        self.tools_by_name = {tool.name: tool for tool in tools}

   

    def __call__(self, inputs: dict):

        message = inputs.get("messages", [])[-1]

        outputs = []

       

        for tool_call in message.tool_calls:

            # 调用对应工具

            tool_result = self.tools_by_name[tool_call["name"]].invoke(

                tool_call["args"]

            )

            # 创建 ToolMessage

            outputs.append(

                ToolMessage(

                    content=json.dumps(tool_result),

                    name=tool_call["name"],

                    tool_call_id=tool_call["id"],

                )

            )

        return {"messages": outputs}

```

**执行流程**:

1. 解析 LLM 的 `tool_calls` 请求

2. 查找并执行对应工具

3. 将结果封装为 `ToolMessage`

4. 返回更新后的状态

#### 3.2.3 条件路由

```python

def route_tools(state: State):

    """条件边路由函数。"""

    ai_message = state.get("messages", [])[-1]

   

    # 检查是否有工具调用

    if hasattr(ai_message, "tool_calls") and len(ai_message.tool_calls) > 0:

        return "tools"  # 有工具调用,路由到 tools 节点

    return END  # 没有工具调用,结束

```

**作用**:根据当前状态动态决定下一步执行哪个节点。

#### 3.2.4 图结构

```python

# 添加节点

graph_builder.add_node("chatbot", chatbot)

graph_builder.add_node("tools", tool_node)

# 添加边

graph_builder.add_edge(START, "chatbot")

graph_builder.add_conditional_edges(

    "chatbot",

    route_tools,

    {"tools": "tools", END: END}

)

graph_builder.add_edge("tools", "chatbot")  # 形成循环

```

**图结构**:

```

START ──▶ chatbot ──┬──▶ END(无工具调用)

                    │

                    └──▶ tools ──▶ chatbot(循环)

                         (有工具调用)

```

---

## 四、运行效果

### 4.1 执行步骤

```bash

python 03添加工具.py

```

### 4.2 输出结果

---

## 五、ReAct 模式详解

### 5.1 执行流程图解

```

用户: "今天重庆天气怎么样?"

    │

    ▼

┌─────────────────────────────────────┐

│  Step 1: chatbot 节点               │

│  LLM 判断需要调用工具               │

│  输出: AIMessage with tool_calls    │

└─────────────────────────────────────┘

    │

    ▼

┌─────────────────────────────────────┐

│  Step 2: route_tools 检查           │

│  发现 tool_calls                    │

│  返回: "tools"                      │

└─────────────────────────────────────┘

    │

    ▼

┌─────────────────────────────────────┐

│  Step 3: tools 节点                 │

│  调用 TavilySearch                  │

│  搜索: "重庆今天天气"               │

│  输出: ToolMessage with results     │

└─────────────────────────────────────┘

    │

    ▼

┌─────────────────────────────────────┐

│  Step 4: chatbot 节点(循环)       │

│  LLM 接收 ToolMessage               │

│  生成最终回答                       │

└─────────────────────────────────────┘

    │

    ▼

┌─────────────────────────────────────┐

│  Step 5: route_tools 检查           │

│  无 tool_calls                      │

│  返回: END                          │

└─────────────────────────────────────┘

    │

    ▼

输出: "根据搜索结果,重庆今天天气晴朗..."

```

### 5.2 消息流转

```

消息历史:

├── UserMessage: "今天重庆天气怎么样?"

├── AIMessage: tool_calls(调用意图)

├── ToolMessage: 搜索结果

└── AIMessage: 最终回答

```

---

## 六、踩坑记录

| 问题 | 原因 | 解决方案 |

|------|------|----------|

| API Key 泄露风险 | 硬编码在代码中 | 使用 `.env` 文件存储 |

| 工具调用不触发 | LLM 未正确绑定工具 | 确认 `bind_tools()` 调用 |

| ToolMessage 格式错误 | content 不是 JSON | 使用 `json.dumps()` 序列化 |

| 无限循环 | 忘记返回 END | 检查 `route_tools` 逻辑 |

| 工具结果丢失 | tool_call_id 不匹配 | 确保 ID 与请求一致 |

---

## 七、总结

通过本文,你学会了:

1. ✅ **工具绑定**:使用 `bind_tools()` 让 LLM 知道可用工具

2. ✅ **工具节点**:实现 `BasicToolNode` 执行工具调用

3. ✅ **条件路由**:使用 `add_conditional_edges()` 动态控制流程

4. ✅ **ReAct 模式**:理解推理-行动-观察的完整循环

5. ✅ **消息类型**:掌握 `AIMessage`、`ToolMessage` 的使用

### 进阶方向

- **多工具支持**:添加计算器、数据库查询等工具

- **工具选择**:让 LLM 智能选择最合适的工具

- **错误处理**:添加工具调用失败的容错机制

- **人机协作**:在关键步骤添加人工确认


 

---

## 参考资料

- [LangGraph 官方教程 - 添加工具](https://langchain-ai.github.io/langgraph/tutorials/introduction/)

- [Tavily 搜索引擎](https://tavily.com/)

- [ReAct 论文](https://arxiv.org/abs/2210.03629)

- [LangChain 工具调用文档](https://python.langchain.com/docs/modules/agents/tools/)

---

> 📌 本文首发于 ZEEKLOG,作者:码上AI_123

> 🔗 转载请注明出处

>

> 💡 如果觉得有帮助,欢迎点赞、收藏、关注!

> 🎯 你的支持是我持续创作的动力!

Read more

终于把LLaMA 2跑起来了,然后呢?本地大模型部署的残酷真相!

终于把LLaMA 2跑起来了,然后呢?本地大模型部署的残酷真相!

“终于把LLaMA 2跑起来了!” 深夜11点,程序员小林在朋友圈晒出电脑屏幕截图——黑色命令行窗口里,一行行代码滚动后,本地大模型吐出了第一句回答。他兴奋地刷新着评论区,看着“大佬”“技术牛”的赞美,感觉自己摸到了AI时代的“核心门槛”。 可这份热情没能撑过一个月。如今,那台专门升级了显卡的电脑,大模型程序静静躺在硬盘深处,偶尔开机,也只是为了清理缓存。“生成一句话要等10秒,写周报还能把部门名写错,不如直接用GPT-4 API,3秒出结果还靠谱。”小林的话,道出了无数本地部署玩家的心声。 2023年以来,“本地部署大模型”成了AI圈的热门话题。从技术博主的“手把手教程”,到论坛里的“配置交流帖”,仿佛人人都能拥有一台“私人AI服务器”。但热闹背后,是一场无声的“弃坑潮”:某技术社区调研显示,70%的个人用户在部署完成后3个月内停止使用,曾经的“技术勋章”,最终沦为“电子垃圾”。 这股热情的消退,绝非偶然。当“掌控AI”

文心一言 4.5 开源深度剖析:性能中文双项碾压,开源引擎驱动行业变革,解锁大模型新范式

文心一言 4.5 开源深度剖析:性能中文双项碾压,开源引擎驱动行业变革,解锁大模型新范式

引言 不知道大家关注到没?文心大模型 ERNIE 4.5 已开源并首发于 GitCode 平台!不同于以往的开源模型,百度这次一口气开源了 10 款模型,覆盖基础、对话、多模态、思考等多个方向,甚至将核心训练框架、分布式策略完全开放。在基准测试中,文心开源即刷榜,性能大幅超越 Qwen3 、 DeepSeek-V3 等模型;下面跟随博主一起从模型架构特性、技术分析、部署难度等来对文心模型全面解析一下! 文章目录 * 引言 * 一、文心大模型 ERNIE 4.5 开源简介 * 1.1 开源模型版本介绍 * 1.2 基准测试表现 * 1.3 全面的工具生态链 * 二、文心大模型 ERNIE 4.5技术分析

无需翻墙!国内直连的3款AI绘画工具保姆级教程(含Stable Diffusion替代方案)

无需跨域,触手可及:面向国内创作者的AI绘画工具深度实践指南 对于许多创意工作者和数字艺术爱好者而言,AI绘画工具的出现无疑打开了一扇新世界的大门。然而,当热情遭遇网络环境的现实壁垒,那份创作的冲动往往被复杂的配置和连接问题所冷却。我们理解,真正的灵感不应被技术门槛所束缚。因此,本文将聚焦于那些能够在国内网络环境下直接、稳定、高效运行的AI绘画解决方案。无论你是插画师、设计师、社交媒体内容创作者,还是纯粹对AI艺术充满好奇的探索者,这里没有晦涩的术语和繁琐的翻越步骤,只有从零开始、一步到位的实操指南。我们将深入探讨不同工具的特性、本地部署的优劣、云端服务的便捷,以及如何将这些工具无缝融入你的实际工作流,释放被压抑的创造力。 1. 核心工具选择:云端直连与本地部署的权衡 在选择AI绘画工具时,我们首先需要明确两个核心路径:云端服务和本地部署。这两条路径在易用性、性能、隐私和成本上各有千秋,理解它们的区别是做出明智选择的第一步。 云端服务 通常以网页应用或轻量级客户端的形式提供。其最大优势在于 “开箱即用” 。你无需关心复杂的模型下载、显卡驱动或显存大小,只需一个浏览器,注册账号

2026年AI编程工具推荐:从Copilot到Trae,开发者该如何选型?

2026年AI编程工具推荐:从Copilot到Trae,开发者该如何选型?

面对琳琅满目的AI编程工具,字节跳动的Trae正以其本土化优势和工程级代码生成能力,悄然改变着中国开发者的工作流。 “有没有一个能完美适应国内网络环境,理解中文开发需求的AI编程工具?” 当字节跳动推出Trae时,这个问题开始有了清晰答案。与需要科学上网的Cursor、订阅费用昂贵的GitHub Copilot不同,Trae作为原生AI IDE,深度结合了中国开发者的实际工作环境。 一个有趣的现象是,越来越多的中国开发者开始将Trae与VS Code的无缝迁移体验作为选择标准之一。这种“无感切换”正成为本土AI编程工具获取用户的关键策略。 01 核心选型维度 开发者选择AI编程工具时往往陷入功能对比的细节中,而忽略了更本质的匹配度问题。真正影响工作效率的,不是工具宣传的“强大功能”,而是工具与开发者身份、工作场景的契合程度。 对于中国开发者而言,选型维度需要特别增加本土化适配这一项。网络稳定性、中文语境理解、本地支付便利性以及是否符合国内数据安全法规,这些在评估海外工具时常被忽略的因素,实际上决定了工具能否真正融入日常工作流。 不同规模的团队对AI编程工具的需求差异显著