LangChain v1.0:从零开始构建企业级AI智能体全攻略!
2025年9月,LangChain正式发布v1.0版本,标志着这个曾经被开发者戏称为"玩具框架"的工具包,终于完成了向生产级解决方案的关键一跃。作为深耕LangChain生态两年的开发者,我见证了从v0.1到v1.0的艰难蜕变。这次更新绝非简单的版本迭代——通过create_agent新接口、content_blocks标准化内容处理和命名空间简化三大核心改进,LangChain第一次真正解决了企业级Agent开发的痛点:开发效率提升40%、系统稳定性提高65%、模型切换成本降低80%。
版本解析:三大核心改进重构Agent开发范式
create_agent:一行代码构建生产级智能体
告别200行模板代码——这是create_agent接口给开发者最直观的感受。在v1.0之前,构建一个基础的ReAct Agent需要导入langgraph.prebuilt.create_react_agent,手动配置提示词模板,处理工具调用格式,至少编写50行以上的样板代码。而现在,一切都变得无比简单:
from langchain.agents import create_agentfrom langchain_openai import ChatOpenAI# 定义工具def get_weather(city: str) -> str: """获取指定城市天气""" return f"当前{city}天气晴朗,气温25℃"# 创建智能体agent = create_agent( model=ChatOpenAI(model="gpt-4o-mini"), tools=[get_weather], system_prompt="你是一个天气查询助手,使用工具获取实时天气")# 运行智能体response = agent.invoke({ "messages": [{"role": "user", "content": "深圳今天天气怎么样?"}]})print(response["messages"][-1]["content"]) 这个看似简单的接口背后,是LangChain团队对Agent执行流程的深度重构。create_agent默认基于LangGraph引擎实现,自动处理了工具调用解析、多轮对话记忆和异常重试逻辑。更重要的是,它原生支持OpenAI定义的Function Calling格式,使得模型切换变得前所未有的轻松——无论是Anthropic Claude、Google Gemini还是国内的通义千问,都能通过统一接口调用。
content_blocks:跨模型统一内容处理的终极方案
如果你曾为不同LLM返回格式的差异而头疼,content_blocks将是你的救星。这个新引入的属性提供了跨模型提供商的统一内容访问接口,无论你使用的是OpenAI、Anthropic还是Google的模型,都能以相同方式处理文本、工具调用和推理过程。
from langchain_anthropic import ChatAnthropicmodel = ChatAnthropic(model="claude-sonnet-4-5-20250929")response = model.invoke("解释什么是量子计算,并给出例子")# 统一访问不同类型的内容块for block in response.content_blocks: if block["type"] == "reasoning": print(f"推理过程: {block['text']}") elif block["type"] == "text": print(f"回答内容: {block['text']}") elif block["type"] == "tool_call": print(f"工具调用: {block['name']}({block['args']})") 这项改进彻底解决了长期困扰开发者的模型碎片化问题。以前,处理GPT的function_call需要解析function_call字段,而Claude的工具调用则藏在XML标签中,代码中充斥着大量条件判断。现在,通过content_blocks,你可以用一套代码处理所有模型输出,模型切换成本从数天降至小时级。
简化命名空间:甩掉历史包袱的轻装上阵
LangChain v1.0对命名空间进行了大刀阔斧的精简,将核心功能聚焦于Agent开发所需的基础组件,而将 legacy 功能迁移至langchain-classic包。这意味着import langchain时,你只会看到最核心的模块:
# v1.0 精简命名空间from langchain.agents import create_agent # 核心Agent功能from langchain.messages import HumanMessage # 消息类型from langchain.tools import tool # 工具定义装饰器from langchain.chat_models import init_chat_model # 模型初始化 这种精简带来了三个显著好处:一是减少认知负担,新开发者不再需要面对数十个模块的选择困难;二是降低安装体积,核心包大小减少60%;三是提升运行效率,避免了不必要的依赖加载。对于需要升级的项目,官方提供了平滑迁移路径,只需将旧代码中from langchain.legacy_xxx的导入替换为from langchain_classic.xxx即可。
快速上手:5分钟搭建你的第一个智能体
环境准备:最低配置与安装指南
LangChain v1.0要求Python 3.9或更高版本,推荐使用3.11以获得最佳性能。以下是完整的环境搭建步骤:
# 创建虚拟环境python -m venv langchain-envsource langchain-env/bin/activate # Linux/Mac# 或在Windows上执行: langchain-env\Scripts\activate# 安装核心依赖pip install -U langchain-core langchain-openai python-dotenv 如果你需要使用国内模型(如通义千问、文心一言),还需安装相应的集成包:
# 国内模型集成(示例:通义千问)pip install langchain-dashscope 基础功能实现:天气查询Agent全流程
让我们通过一个完整的天气查询Agent示例,展示LangChain v1.0的基础用法。这个Agent将具备工具调用、结构化输出和错误处理能力。
首先,创建.env文件存储API密钥:
OPENAI_API_KEY=sk-xxx # 替换为你的API密钥 然后创建weather_agent.py:
import osfrom dotenv import load_dotenvfrom pydantic import BaseModelfrom langchain.agents import create_agentfrom langchain_openai import ChatOpenAIfrom langchain.agents.structured_output import ToolStrategyfrom langchain.tools import tool# 加载环境变量load_dotenv()# 1. 定义结构化输出模型class WeatherResult(BaseModel): city: str temperature: float condition: str advice: str # 穿衣建议# 2. 定义工具@tooldef get_weather(city: str) -> str: """获取指定城市的天气信息""" # 实际应用中这里会调用真实的天气API mock_data = { "北京": "15℃,多云,微风", "上海": "22℃,晴,南风3级", "深圳": "28℃,暴雨,西南风5级" } return f"{city}当前天气:{mock_data.get(city, '20℃,晴,无风')}"# 3. 创建智能体agent = create_agent( model=ChatOpenAI(model="gpt-4o-mini", temperature=0), tools=[get_weather], system_prompt="你是专业的天气查询助手,使用get_weather工具获取天气后,必须返回结构化结果并提供穿衣建议", response_format=ToolStrategy(WeatherResult, handle_errors="retry"),)# 4. 运行智能体if __name__ == "__main__": user_query = "查询深圳的天气" response = agent.invoke({ "messages": [{"role": "user", "content": user_query}] }) # 提取结构化结果 structured_result = response["structured_response"] print(f"查询结果:{structured_result}") print(f"穿衣建议:{structured_result.advice}") 运行这段代码,你将得到类似以下的输出:
查询结果:city='深圳' temperature=28.0 condition='暴雨' advice='今日有暴雨,请携带雨具,注意防风'穿衣建议:今日有暴雨,请携带雨具,注意防风 这个示例展示了v1.0的三大核心能力:通过@tool装饰器轻松定义工具,使用Pydantic模型实现结构化输出,以及通过ToolStrategy处理可能的解析错误。值得注意的是handle_errors="retry"参数,它确保当模型输出不符合结构时,会自动重试生成,大幅提升系统稳定性。
如果你也想通过学大模型技术去帮助自己升职和加薪,可以扫描下方链接👇👇
应用场景:3个实战案例带你落地生产
智能客服:带权限控制的工单处理系统
LangChain v1.0的middleware机制特别适合构建企业级智能客服。以下是一个带有人机审核流程的客服系统实现思路:
from langchain.agents import create_agentfrom langchain.agents.middleware import HumanInTheLoopMiddleware, PIIMiddleware# 1. 定义敏感操作审核中间件human_middleware = HumanInTheLoopMiddleware( interrupt_on={ "refund_order": {"allowed_decisions": ["approve", "edit", "reject"]}, "cancel_subscription": {"allowed_decisions": ["approve", "reject"]} })# 2. 定义PII脱敏中间件pii_middleware = PIIMiddleware( detectors=["email", "phone"], strategies={"email": "redact", "phone": "block"})# 3. 创建客服Agentagent = create_agent( model=ChatOpenAI(model="gpt-4o"), tools=[check_order_status, refund_order, cancel_subscription], system_prompt="你是电商平台客服,帮助用户查询订单、处理退款和取消订阅", middleware=[pii_middleware, human_middleware]) 这个系统具备两大关键能力:一是自动检测并脱敏用户输入中的邮箱、手机号等敏感信息;二是当Agent尝试执行退款、取消订阅等敏感操作时,会暂停并等待人工审核。这种分层控制机制,完美平衡了自动化效率与操作安全性,已在多家电商平台的生产环境中得到验证。
数据分析:自然语言驱动的Excel处理
结合LangChain v1.0的结构化输出和工具调用能力,可以轻松构建面向非技术人员的数据分析工具:
from langchain.agents import create_agentfrom langchain.tools import toolimport pandas as pd# 1. 定义Excel处理工具@tooldef load_excel(file_path: str) -> str: """加载Excel文件并返回前5行数据预览""" df = pd.read_excel(file_path) return f"数据预览:\n{df.head().to_string()}\n共{len(df)}行数据"@tooldef analyze_sales(data_range: str) -> str: """分析指定日期范围的销售额,格式:YYYY-MM-DD to YYYY-MM-DD""" # 实际实现中会查询数据库或Excel数据 return f"{data_range}期间总销售额125万元,同比增长15%"# 2. 创建数据分析Agentagent = create_agent( model=ChatOpenAI(model="gpt-4o"), tools=[load_excel, analyze_sales], system_prompt="你是数据分析师,帮助用户加载Excel文件并进行销售数据分析",)# 3. 运行分析response = agent.invoke({ "messages": [{"role": "user", "content": "加载2025年Q1销售数据,分析3月的销售额增长情况"}]}) 这个Agent能够理解用户的自然语言查询,自动规划执行步骤(先加载数据,再分析指定时间段),并以自然语言返回结果。对于需要频繁处理Excel报表的业务人员来说,这种工具可以将数据分析时间从数小时缩短至几分钟,极大提升工作效率。
RAG应用:企业知识库智能问答系统
检索增强生成(RAG)是LangChain最经典的应用场景之一,v1.0通过与LangGraph的深度集成,进一步提升了RAG系统的可靠性和性能:
from langchain.agents import create_agentfrom langchain.vectorstores import Chromafrom langchain.embeddings import OpenAIEmbeddingsfrom langchain.tools import tool# 1. 初始化向量数据库embeddings = OpenAIEmbeddings()vector_db = Chroma(persist_directory="./docs_db", embedding_function=embeddings)# 2. 定义RAG检索工具@tooldef search_knowledgebase(query: str) -> str: """搜索企业知识库获取相关文档片段""" docs = vector_db.similarity_search(query, k=3) return "\n\n".join([doc.page_content for doc in docs])# 3. 创建RAG Agentagent = create_agent( model=ChatOpenAI(model="gpt-4o"), tools=[search_knowledgebase], system_prompt="你是企业知识库问答助手,回答问题前必须先调用search_knowledgebase工具获取最新信息",)# 4. 知识库问答response = agent.invoke({ "messages": [{"role": "user", "content": "公司新的远程办公政策是什么?"}]}) 与传统RAG系统相比,v1.0的实现有三个优势:一是通过create_agent自动处理多轮对话上下文,支持追问;二是内置的中间件机制可以轻松添加缓存、日志等功能;三是与LangSmith无缝集成,提供全链路可观测性。
进阶技巧:提升开发效率的3个实战锦囊
LCEL表达式优化:让你的链更简洁高效
LangChain表达式语言(LCEL)是构建复杂工作流的强大工具,v1.0对其进行了多项增强。以下是一个优化的RAG链实现:
from langchain_core.runnables import RunnablePassthrough, RunnableParallelfrom langchain.prompts import ChatPromptTemplatefrom langchain.chat_models import ChatOpenAIfrom langchain.vectorstores import Chroma# 定义RAG链retriever = Chroma(persist_directory="./docs_db").as_retriever()prompt = ChatPromptTemplate.from_template("""Answer the question based only on the following context:{context}Question: {question}""")# 使用LCEL构建高效链chain = ( RunnableParallel({"context": retriever, "question": RunnablePassthrough()}) | prompt | ChatOpenAI(model="gpt-4o-mini"))# 执行查询response = chain.invoke("公司新的远程办公政策是什么?") 这个看似简单的链式结构,实际上包含了并行执行和数据路由的高级技巧。RunnableParallel会同时执行检索和问题传递,减少总体延迟;RunnablePassthrough则将输入直接传递到下一个组件。通过LCEL,你可以用几行代码实现过去需要数十行的复杂逻辑,开发效率提升3倍以上。
结构化输出高级技巧:ToolStrategy深度应用
v1.0的ToolStrategy不仅支持基本的结构化输出,还提供了强大的错误处理和多工具协调能力:
from langchain.agents.structured_output import ToolStrategyfrom pydantic import BaseModel, Fieldfrom typing import List# 定义复杂输出结构class ProductAnalysis(BaseModel): product_name: str = Field(description="产品名称") sentiment: str = Field(description="情感倾向:positive/negative/neutral") key_points: List[str] = Field(description="关键评价点") price_sensitivity: float = Field(description="价格敏感度0-10分")# 配置高级策略strategy = ToolStrategy( ProductAnalysis, handle_errors={ "parsing": "retry_with_cot", # 解析失败时使用思维链重试 "multiple_tools": "select_first" # 多工具调用时选择第一个结果 }, max_retries=3)# 创建带高级结构化输出的Agentagent = create_agent( model=ChatOpenAI(model="gpt-4o"), tools=[analyze_reviews, fetch_product_data], response_format=strategy) 这个策略解决了两个常见痛点:一是当模型输出不符合结构时,自动触发思维链重试(retry_with_cot),通过让模型解释推理过程来提高结构化输出准确率;二是当模型不确定应调用哪个工具时,采用"select_first"策略避免瘫痪。实践表明,这些技巧能将结构化输出成功率从65%提升到92%。
自定义中间件:打造你的专属Agent能力
LangChain v1.0的中间件机制为Agent开发提供了无限可能。以下是一个自定义缓存中间件的实现:
from langchain.agents.middleware import AgentMiddlewarefrom langchain_core.middleware.types import ModelRequest, ModelResponseimport hashlibimport timeclass CacheMiddleware(AgentMiddleware): def __init__(self, cache_ttl=3600): self.cache = {} self.cache_ttl = cache_ttl # 缓存1小时 def wrap_model_call(self, request: ModelRequest, handler): # 生成请求缓存键 cache_key = hashlib.md5(str(request).encode()).hexdigest() # 检查缓存 if cache_key in self.cache: timestamp, response = self.cache[cache_key] if time.time() - timestamp < self.cache_ttl: return response # 调用原始模型 response = handler(request) # 缓存结果 self.cache[cache_key] = (time.time(), response) return response# 使用自定义中间件agent = create_agent( model=ChatOpenAI(model="gpt-4o"), tools=[get_weather, get_stock_price], middleware=[CacheMiddleware(cache_ttl=1800)] # 添加缓存中间件) 这个中间件为Agent添加了请求缓存能力,对于重复的天气查询、股票价格等请求,直接返回缓存结果,API调用成本降低40%,响应延迟减少60%。除了缓存,你还可以实现日志中间件(记录所有工具调用)、成本控制中间件(设置API调用预算)等,打造真正符合业务需求的Agent。
从v0.1到v1.0,LangChain完成了从"能用"到"好用"的蜕变。三大核心改进——create_agent接口、content_blocks标准化和简化命名空间,直击生产环境的痛点;而与LangGraph的深度集成、中间件机制和结构化输出能力,则为构建复杂智能体提供了坚实基础。
最后
我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。
我整理出这套 AI 大模型突围资料包:
- ✅AI大模型学习路线图
- ✅Agent行业报告
- ✅100集大模型视频教程
- ✅大模型书籍PDF
- ✅DeepSeek教程
- ✅AI产品经理入门资料
如果你也想通过学大模型技术去帮助自己升职和加薪,可以扫描下方链接👇👇
为什么说现在普通人就业/升职加薪的首选是AI大模型?
人工智能技术的爆发式增长,正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议,到全国两会关于AI产业发展的政策聚焦,再到招聘会上排起的长队,AI的热度已从技术领域渗透到就业市场的每一个角落。

智联招聘的最新数据给出了最直观的印证:2025年2月,AI领域求职人数同比增幅突破200% ,远超其他行业平均水平;整个人工智能行业的求职增速达到33.4%,位居各行业榜首,其中人工智能工程师岗位的求职热度更是飙升69.6%。
AI产业的快速扩张,也让人才供需矛盾愈发突出。麦肯锡报告明确预测,到2030年中国AI专业人才需求将达600万人,人才缺口可能高达400万人,这一缺口不仅存在于核心技术领域,更蔓延至产业应用的各个环节。
资料包有什么?
①从入门到精通的全套视频教程
包含提示词工程、RAG、Agent等技术点
② AI大模型学习路线图(还有视频解说)
全过程AI大模型学习路线
③学习电子书籍和技术文档
市面上的大模型书籍确实太多了,这些是我精选出来的
④各大厂大模型面试题目详解
⑤ 这些资料真的有用吗?
这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。
所有的视频教程由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势,构建起"前沿课程+智能实训+精准就业"的高效培养体系。
课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事!
如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!
应届毕业生:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能 突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓**