基于 Langchain-Chatchat 快速搭建本地 LLM 智能知识库
基于 Langchain-Chatchat 开源项目,介绍了一种快速搭建本地 LLM 智能知识库的方案。该项目基于 Langchain 框架与大语言模型,支持开源模型离线私有部署及 OpenAI API 调用。提供 Docker 和本地部署两种方式,包含标准模式和无需显卡的 Lite 模式。适用于中文场景下的检索增强生成 (RAG) 应用,具备清晰的架构设计,方便开发者直接构建或深入学习。

基于 Langchain-Chatchat 开源项目,介绍了一种快速搭建本地 LLM 智能知识库的方案。该项目基于 Langchain 框架与大语言模型,支持开源模型离线私有部署及 OpenAI API 调用。提供 Docker 和本地部署两种方式,包含标准模式和无需显卡的 Lite 模式。适用于中文场景下的检索增强生成 (RAG) 应用,具备清晰的架构设计,方便开发者直接构建或深入学习。

Langchain-Chatchat 是一个基于 ChatGLM 等大语言模型与 Langchain 框架实现的开源、可离线部署的检索增强生成 (RAG) 大模型知识库项目。
本项目利用 langchain 思想实现的基于本地知识库的问答应用,目前 langchain 可以说是开发 LLM 应用的首选框架,而本项目的目标就是建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。
依托于本项目支持的开源 LLM 与 Embedding 模型,本项目可实现全部使用开源模型离线私有部署。与此同时,本项目也支持 OpenAI GPT API 的调用,并将在后续持续扩充对各类模型及模型 API 的接入。
本项目全流程使用开源模型来实现本地知识库问答应用,最新版本中通过使用 FastChat 接入 Vicuna, Alpaca, LLaMA, Koala, RWKV 等模型,依托于 langchain 框架支持通过基于 FastAPI 提供的 API 调用服务,或使用基于 Streamlit 的 WebUI 进行操作。
可以通过下面的图来直观看到的整个流程的执行过程,非常值得参考学习。

再从从文档处理角度来看,实现流程如下:

这里需要注意,本项目未涉及微调、训练过程,但可利用微调或训练对本项目效果进行优化。
软件要求:
操作系统
其他系统可能出现系统兼容性问题。
最低要求
该要求仅针对标准模式,轻量模式使用在线模型,不需要安装 torch 等库,也不需要显卡即可运行。
推荐要求
开发者在以下环境下进行代码调试,在该环境下能够避免最多环境问题。
硬件要求:
如果想要顺利在 GPU 运行本地模型的 FP16 版本,你至少需要以下的硬件配置,来保证在我们框架下能够实现 稳定连续对话
实际部署配置示例
处理器:Intel® Core™ i9 processor 14900K
内存:256 GB DDR5
显卡组:NVIDIA RTX4090 X 1 / NVIDIA RTXA6000 X 1
硬盘:1 TB
操作系统:Ubuntu 22.04 LTS / Arch Linux, Linux Kernel 6.6.7
显卡驱动版本:545.29.06
Cuda 版本:12.3 Update 1
Python 版本:3.11.7
Docker 部署
开发组为开发者们提供了一键部署的 docker 镜像文件懒人包。开发者们可以在 AutoDL 平台和 Docker 平台一键部署。
docker run -d --gpus all -p 80:8501 isafetech/chatchat:0.2.10
docker run -d --gpus all -p 80:8501 ccr.ccs.tencentyun.com/chatchat/chatchat:0.2.10
docker run -d --gpus all -p 80:8501 registry.cn-beijing.aliyuncs.com/chatchat/chatchat:0.2.10
本地部署方案
# 首先,确信你的机器安装了 Python 3.8 - 3.10 版本
$ python --version
Python 3.8.13
$ conda create -p /your_path/env_name python=3.8
$ source activate /your_path/env_name
$ conda create -n env_name python=3.8
$ conda activate env_name # Activate the environment
# 更新 py 库
$ pip3 install --upgrade pip
# 拉取仓库
$ git clone --recursive https://github.com/chatchat-space/Langchain-Chatchat.git
# 进入目录
$ cd Langchain-Chatchat
# 安装全部依赖
$ pip install -r requirements.txt
# 默认依赖包括基本运行环境(FAISS 向量库)。以下是可选依赖:
# - 如果要使用 milvus/pg_vector 等向量库,请将 requirements.txt 中相应依赖取消注释再安装。
# - 如果要开启 OCR GPU 加速,请安装 rapidocr_paddle[gpu]
# - 如果要使用在线 API 模型,请安装对用的 SDK
$ git lfs install
$ git clone https://huggingface.co/THUDM/chatglm2-6b
$ git clone https://huggingface.co/moka-ai/m3e-base
#如果您已经有创建过知识库
$ python init_database.py --create-tables
#如果您是第一次运行本项目
$ python init_database.py --recreate-vs
$ python startup.py -a
启动界面
正常启动后,会有两种使用界面,一种是 webui,如下:

Web UI 知识库管理页面

另一种使用方式是 API,以下是查看提供的 API。

最轻模式
以上的部署方式是需要显卡的,对于我们这些没卡的一族来说,就很尴尬。但是项目很贴心,提供一个 lite 模式,该模式的配置方式与常规模式相同,但无需安装 torch 等重依赖,通过在线 API 实现 LLM 和 Ebeddings 相关功能,适合没有显卡的电脑使用。
$ pip install -r requirements_lite.txt
$ python startup.py -a --lite
该模式支持的在线 Embeddings 包括:
在 model_config.py 中 将 LLM_MODELS 和 EMBEDDING_MODEL 设置为可用的在线 API 名称即可
项目的结构非常不错,针对当前热门的 AI 知识库给出一种非常好的构建方式,而且还做到了全链条的开源产品,所以无论你是希望直接使用它来构建知识库,还是希望通过本项目学习和实现自己的解决方案,都会是非常好的选择。
我也建议大家不要单纯的伸手党,还是要自己去研究一下项目的架构,因为这类项目实际上最精华的就是架构设计。


微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online