DeepSeek R1 个人 AI 知识库搭建指南
最近关于如何本地部署 DeepSeek 搭建个人知识库的咨询较多。目前 Ollama 等工具提供的多为蒸馏版本,虽然性能有所提升,但与官方满血版(671B 参数)相比仍有差距。对于非涉密数据且追求最佳效果的用户,推荐 API 方案;对于算力充足或需保护数据安全的情况,可选择本地部署。
一、知识库使用效果
借助个人知识库文件作为外脑,AI 可基于文档内容指导操作或回答问题,而非仅依赖自身语料库。

通过配置提问指南,AI 能预判问题并建议正确的提示词格式,从而发挥最大价值。

支持直接提问精准搜索知识库原始信息,实现快速查询。

二、API 搭建知识库
如果本地数据不涉密,建议使用满血的 DeepSeek R1 模型(671B)。
1. 准备工具
下载 Cherry Studio 软件:
2. 获取 API Key
登录硅基流动平台,新用户通常赠送 Token 额度。
在 API 密钥生成界面创建或复制已有密钥。
3. 配置模型
在 Cherry Studio 中配置 API Key,并在模型广场选择「硅基流动」发布的 DeepSeek R1 V3 模型。如需推理能力,请复制模型名称。
在模型服务下方添加 R1 模型,点击检查测试 API 访问是否正常。
4. 配置嵌入模型
RAG 技术需要向量模型将文件内容转换为数字存储到向量数据库。建议配置 BAAI/bge-m3 模型以获得更高搜索精准度。
按同样方式配置到 Cherry Studio 中。
5. 创建知识库
在 Cherry Studio 创建知识库,选择刚才配置的嵌入模型,系统会自动向量化数据。 上传本地文件进行向量化。若 PDF 为扫描件、手写件或含复杂表格公式,解析效果可能较差,建议配合 PDF 转结构化文档方案处理。
向量化成功后,图标会显示相应状态。
6. 测试使用
添加助手并选择刚配置的满血 R1 模型,可将其设为默认模型以便直接使用。 测试发现 DeepSeek 开始深度思考,回复内容与原文一致。
三、本地部署搭建知识库
适合简单体验、本地算力充足或希望保护数据安全的场景。


