LangChain 实战:大模型对话记忆模块(附完整代码 + Web 案例)

目录

前言:为什么需要对话记忆?

一、核心认知:原始 API vs LangChain 封装

1.1 原生 API 调用的痛点(无记忆)

1.2 LangChain 的价值:封装记忆与简化调用

二、LangChain 记忆模块核心组件

2.1 基础款:ConversationBufferMemory(完整记忆)

2.2 进阶款:窗口记忆与总结记忆

(1)ConversationBufferWindowMemory(窗口记忆)

(2)ConversationSummaryMemory(总结记忆)

三、实战 1:LangChain 记忆链(ConversationChain)

四、实战 2:Streamlit 搭建带记忆的聊天 Web 应用

4.1 项目结构

4.2 后端逻辑(scripts.py)

4.3 前端逻辑(app.py)

4.4 运行应用

五、学习总结 & 避坑指南

5.1 核心知识点总结

5.2 避坑指南

最后


前言:为什么需要对话记忆?

日常使用豆包、ChatGPT 等 AI 应用时,我们习以为常的「上下文记忆」功能(比如问完 “林俊杰是谁” 再问 “他的代表作”,AI 能精准理解),其实并非大模型原生自带 —— 直接调用大模型 API 时,每次请求都是独立的,模型只会基于当前输入的 Token 逐个预测回复,完全没有 “记忆” 能力,返回的也是包含原始格式的完整响应。

LangChain 作为大模型应用开发的核心框架,已经帮我们封装了对话记忆、Prompt 模板、链式调用等高频功能,无需手动解析原始 API 的复杂输出,也不用自己拼接上下文。

一、核心认知:原始 API vs LangChain 封装

1.1 原生 API 调用的痛点(无记忆)

直接调用大模型 API(即使是通义千问等兼容 OpenAI 接口的模型),每次请求都是 “一次性” 的,模型无法关联历史对话:

from openai import OpenAI import os # 初始化客户端(对接阿里云通义千问) client = OpenAI( api_key=os.getenv("DASHSCOPE_API_KEY"), base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", ) # 第一次提问:林俊杰是谁 completion1 = client.chat.completions.create( model="qwen3.5-plus", messages=[{"role":"user","content":"林俊杰是谁?"}] ) print("第一轮回复:", completion1.choices[0].message.content) # 第二次提问:他有哪些代表作(无上下文,模型无法识别"他") completion2 = client.chat.completions.create( model="qwen3.5-plus", messages=[{"role":"user","content":"他有哪些代表作?"}] ) print("第二轮回复:", completion2.choices[0].message.content) 

输出结果:第二轮回复会反问 “你说的他是谁?”,因为模型没有历史对话的记忆。

1.2 LangChain 的价值:封装记忆与简化调用

LangChain 的核心价值在于:

  • 封装对话记忆模块,无需手动拼接上下文;
  • 统一不同大模型的调用方式(OpenAI / 通义千问 / 讯飞等);
  • 提供链式调用能力,串联 “记忆→Prompt→模型→输出” 全流程;
  • 自动处理响应格式,直接返回可读的回复内容。

二、LangChain 记忆模块核心组件

LangChain 提供了多种记忆类型,适配不同场景,核心均基于ConversationBufferMemory扩展:

记忆类型核心逻辑适用场景
ConversationBufferMemory保存所有对话历史,无长度限制短对话、需要完整上下文的场景
ConversationBufferWindowMemory只保存最近k轮对话只需要短期记忆、节省 Token 的场景
ConversationSummaryMemory将对话历史总结成文本长对话、需要压缩上下文的场景
ConversationSummaryBufferMemory短对话保留原文,超长部分总结兼顾细节和长度的长对话场景
ConversationTokenBufferMemory按 Token 数限制对话长度严格控制上下文 Token 消耗的场景

2.1 基础款:ConversationBufferMemory(完整记忆)

最核心的记忆组件,保存所有对话历史,是其他记忆类型的基础:

from langchain.memory import ConversationBufferMemory # 初始化记忆(return_messages=True:以消息对象存储,更易复用) memory = ConversationBufferMemory(return_messages=True) # 保存第一轮对话 memory.save_context({"input": "我的名字是陆天宇"}, {"output": "你好,陆天宇!"}) # 保存第二轮对话 memory.save_context({"input": "我是AI开发者"}, {"output": "太酷了!我们是同行~"}) # 加载记忆(查看历史对话) print("记忆中的历史对话:") print(memory.load_memory_variables({})) 

输出结果

记忆中的历史对话: {'history': [HumanMessage(content='我的名字是陆天宇'), AIMessage(content='你好,陆天宇!'), HumanMessage(content='我是AI开发者'), AIMessage(content='太酷了!我们是同行~')]} 

2.2 进阶款:窗口记忆与总结记忆

(1)ConversationBufferWindowMemory(窗口记忆)

只保留最近k轮对话,避免上下文过长:

from langchain.memory import ConversationBufferWindowMemory # k=1:只保留最近1轮对话 memory = ConversationBufferWindowMemory(k=1, return_messages=True) memory.save_context({"input": "名字是陆天宇"}, {"output": "你好"}) memory.save_context({"input": "是AI开发者"}, {"output": "同行"}) # 加载记忆(仅保留最后1轮) print(memory.load_memory_variables({})) # 输出:{'history': [HumanMessage(content='是AI开发者'), AIMessage(content='同行')]} 
(2)ConversationSummaryMemory(总结记忆)

将长对话总结为文本,大幅节省 Token:

from langchain.memory import ConversationSummaryMemory from langchain_openai import ChatOpenAI import os # 初始化模型(用于总结对话) model = ChatOpenAI( model="qwen3.5-plus", api_key=os.getenv("DASHSCOPE_API_KEY"), openai_api_base="https://dashscope.aliyuncs.com/compatible-mode/v1" ) # 初始化总结记忆 memory = ConversationSummaryMemory(llm=model, return_messages=True) memory.save_context({"input": "名字是陆天宇,是AI开发者,专注NLP方向"}, {"output": "记住了你的信息~"}) # 加载记忆(已自动总结) print(memory.load_memory_variables({})) # 输出:{'history': [SystemMessage(content='陆天宇介绍自己是专注NLP方向的AI开发者,AI表示记住了相关信息。')]} 

三、实战 1:LangChain 记忆链(ConversationChain)

ConversationChain是 LangChain 封装的 “记忆 + 模型” 组合链,无需手动保存 / 加载记忆,自动处理上下文:

from langchain.chains import ConversationChain from langchain_openai import ChatOpenAI from langchain.memory import ConversationBufferMemory import os # 1. 初始化模型 model = ChatOpenAI( model="qwen3.5-plus", api_key=os.getenv("DASHSCOPE_API_KEY"), openai_api_base="https://dashscope.aliyuncs.com/compatible-mode/v1" ) # 2. 初始化记忆 memory = ConversationBufferMemory(return_messages=True) # 3. 创建记忆链(自动关联模型和记忆) chain = ConversationChain(llm=model, memory=memory) # 4. 第一轮对话 resp1 = chain.invoke({"input": "我的名字是陆天宇"}) print("AI回复1:", resp1["response"]) # 5. 第二轮对话(带上下文) resp2 = chain.invoke({"input": "你知道我的名字吗?"}) print("AI回复2:", resp2["response"]) 

输出结果

AI回复1: 你好,陆天宇!很高兴认识你~ AI回复2: 当然知道啦,你的名字是陆天宇呀 😊 

四、实战 2:Streamlit 搭建带记忆的聊天 Web 应用

基于 Streamlit 快速实现带记忆的聊天界面,模仿 ChatGPT 交互:

4.1 项目结构

chat-app/ ├── app.py # 前端页面逻辑 └── scripts.py # 后端模型调用逻辑 

4.2 后端逻辑(scripts.py)

from langchain.chains import ConversationChain from langchain_openai import ChatOpenAI def get_chat_response(prompt, memory, api_key): # 初始化模型 model = ChatOpenAI( model="qwen3.5-plus", openai_api_key=api_key, openai_api_base="https://dashscope.aliyuncs.com/compatible-mode/v1" ) # 创建记忆链 chain = ConversationChain(llm=model, memory=memory) # 调用模型 response = chain.invoke({"input": prompt}) return response["response"] 

4.3 前端逻辑(app.py)

import streamlit as st from langchain.memory import ConversationBufferMemory from scripts import get_chat_response # 页面配置 st.title("💬 带记忆的AI聊天助手") st.sidebar.title("配置") api_key = st.sidebar.text_input("阿里云API Key", type="password") # 初始化会话状态(保存记忆和消息) if "memory" not in st.session_state: st.session_state["memory"] = ConversationBufferMemory(return_messages=True) st.session_state["messages"] = [{"role": "ai", "content": "你好,我是你的AI助手~"}] # 渲染历史消息 for msg in st.session_state["messages"]: st.chat_message(msg["role"]).write(msg["content"]) # 处理用户输入 prompt = st.chat_input("请输入你的问题...") if prompt: if not api_key: st.warning("请先输入API Key!") st.stop() # 添加用户消息 st.session_state["messages"].append({"role": "human", "content": prompt}) st.chat_message("human").write(prompt) # 调用AI回复 with st.spinner("AI思考中..."): response = get_chat_response(prompt, st.session_state["memory"], api_key) # 添加AI消息 st.session_state["messages"].append({"role": "ai", "content": response}) st.chat_message("ai").write(response) 

4.4 运行应用

# 安装依赖 pip install streamlit langchain langchain-openai # 运行应用 streamlit run app.py 

运行后访问http://localhost:8501,即可体验带上下文记忆的聊天界面。

五、学习总结 & 避坑指南

5.1 核心知识点总结

  1. 记忆本质:LangChain 的记忆模块本质是 “保存对话历史→拼接上下文→传给模型” 的封装,核心解决大模型 “无状态” 的问题;
  2. 核心组件ConversationBufferMemory是基础,其他记忆类型均为其优化(窗口、总结、Token 限制);
  3. 链式调用ConversationChain自动关联 “记忆 + 模型”,无需手动保存 / 加载记忆,是最常用的简化方式;
  4. 工程化:结合 Streamlit 可快速实现可视化应用,会话状态(st.session_state)是保存跨刷新数据的核心。

5.2 避坑指南

  1. API Key 问题:避免硬编码 API Key,优先使用环境变量(os.getenv)或前端输入;
  2. 模型兼容问题:调用通义千问等非 OpenAI 模型时,需指定openai_api_base,且模型名称要准确(如qwen3.5-plus);
  3. Token 计数报错:使用ConversationSummaryBufferMemory/ConversationTokenBufferMemory时,需自定义get_num_tokens_from_messages函数(解决NotImplementedError);
  4. 会话状态丢失:Streamlit 应用中,记忆和消息必须存在st.session_state中,否则刷新页面会丢失历史。

最后

LangChain 的记忆模块是大模型应用开发的核心基础,掌握不同记忆类型的适用场景,能大幅提升 AI 应用的交互体验。从手动实现记忆到封装链,再到前端可视化,一套完整的学习路径能帮助我们快速落地实际应用。后续可进一步学习记忆的持久化(保存到数据库)、多轮对话总结优化等进阶内容。

Read more

llama.cpp 部署 Qwen3-14B-Claude-4.5-Opus-High-Reasoning-Distill-GGUF

模型:Qwen3-14B-Claude-4.5-Opus-High-Reasoning-Distill-GGUF "model": "Qwen3-14B" 显存:21~25GB max-model-len :40960 并发: 4 部署服务器:DGX-Spark-GB10 120GB 生成速率:13 tokens/s (慢的原因分析可见https://blog.ZEEKLOG.net/weixin_69334636/article/details/158497823?spm=1001.2014.3001.5501) 部署GGUF格式的模型有3种方法 对比项Ollamallama.cppLM Studio/OpenWebUI上手难度⭐ 最简单⭐⭐⭐ 需编译⭐ 图形界面推理性能🔶 中等🥇 最强🔶 中等GPU控制有限完全可控有限API服务开箱即用需手动启动内置适合场景快速部署/生产性能调优/研究本地体验

2.2 基于ultrascale 架构FPGA的system manager wizard使用(温压监测)

2.2 基于ultrascale 架构FPGA的system manager wizard使用(温压监测)

Reference: 《PG185》《UG580》 部分文案源于网友博客,AIGC和个人理解,如有雷同纯属抄袭 一、介绍 简述: Xilinx System Management Wizard 是 Vivado 和 Vitis 工具中的一个图形化配置工具,主要用于为 FPGA 设计生成与系统监控和管理相关的 IP 核。这个工具帮助用户配置和集成诸如温度监控、电压监控、时钟监控、外部模拟输入等功能到 FPGA 设计中。它支持AXI4-Lite 与 DRP 接口 主要功能: * 温度和电压监测: * 内建传感器:支持 FPGA 内部温度、VCCINT(核心电压)、VCCAUX(辅助电压)、VCCBRAM(BRAM 电压)等电压和温度监测。通过 SYSMON 进行实时数据采集。

无人机消防通道占用巡检识别 消防通道占用目标检测数据集 智慧消防场景中违规占用行为自动监测与预警 智慧城市治理巡检第10456期

无人机消防通道占用巡检识别 消防通道占用目标检测数据集 智慧消防场景中违规占用行为自动监测与预警 智慧城市治理巡检第10456期

消防通道占用目标检测数据集 数据集核心信息表 类别数量类别名称数据总量格式种类核心应用价值1消防通道551YOLO 格式用于训练消防通道占用识别模型,助力智慧消防场景中违规占用行为的自动监测与预警 数据集关键要素说明 1. 类别设计 * 聚焦消防场景核心检测需求,仅设置 “消防通道” 单一类别,避免冗余标注干扰模型学习; * 类别定义明确,围绕消防通道的物理特征标注,确保模型能精准定位目标区域。 往期热门主题 主页搜两字"关键词"直达 代码数据获取: 获取方式:***文章底部卡片扫码获取*** . 覆盖了YOLO相关项目、OpenCV项目、CNN项目等所有类别, 覆盖各类项目场景: 项目名称项目名称基于YOLOv8 智慧农业作物长势监测系统基于YOLOv11 人脸识别与管理系统基于YOLOv26 无人机巡检电力线路系统PCB板缺陷检测(基于YOLOv8)智慧铁路轨道异物检测系统(基于YOLOv11)基于YOLOv26 102种犬类检测系统基于YOLOv8 人脸面部活体检测无人机农田病虫害巡检系统(基于YOLOv11)水稻害虫检测识别(基于YOL

3分钟上手OpenDroneMap:无人机照片秒变专业测绘成果

3分钟上手OpenDroneMap:无人机照片秒变专业测绘成果 【免费下载链接】ODMA command line toolkit to generate maps, point clouds, 3D models and DEMs from drone, balloon or kite images. 📷 项目地址: https://gitcode.com/gh_mirrors/od/ODM 还在为无人机照片处理发愁吗?OpenDroneMap这款开源神器能让你的航拍影像轻松转化为精准的3D模型、数字高程图和正射影像。无论你是测绘新手还是摄影测量爱好者,这篇快速指南将带你零基础掌握这个强大的数据处理工具。 为什么你应该选择ODM? 📈 传统的商业测绘软件不仅价格昂贵,操作也相当复杂。而OpenDroneMap完全免费开源,支持Windows、Mac和Linux三大平台。它能处理常规JPEG、TIFF格式照片,还支持从视频中提取帧进行建模,大大拓宽了数据来源。更重要的是,ODM提供GPU加速功能,让处理效率翻倍提升! 超简单3步操作流程 🚀 准备工作: