手把手教你打造本地私有化AI知识库:Obsidian + OpenCode + Agent Client + MCP Server 完全指南
在AI时代,拥有一个高效、私密、可控的个人知识库变得尤为重要。本文将详细介绍如何利用Obsidian + OpenCode + Agent Client + MCP Server这四件套,在本地搭建一个完全私有化的AI知识管理系统。所有数据都存储在你的电脑上,无需联网即可享受AI带来的便捷!
**手把手教你打造本地私有化AI知识库:Obsidian + OpenCode + Agent Client + MCP Server 完全指南** 在AI时代,拥有一个高效、私密、可控的个人知识库变得尤为重要。将详细介绍如何利用**Obsidian + OpenCode + Agent Client + MCP Server**这四件套,在本地搭建一个完全私有化的AI知识管理系统。所有数据都…
在AI时代,拥有一个高效、私密、可控的个人知识库变得尤为重要。本文将详细介绍如何利用Obsidian + OpenCode + Agent Client + MCP Server这四件套,在本地搭建一个完全私有化的AI知识管理系统。所有数据都存储在你的电脑上,无需联网即可享受AI带来的便捷!
在开始之前,让我们先了解这四个工具的角色:
| 工具 | 角色 | 作用 |
|---|---|---|
| Obsidian | 笔记管理 | 本地Markdown笔记管理,支持双向链接 |
| MCP Server | 知识索引 | 将笔记向量化,建立语义搜索能力 |
| OpenCode | AI大脑 | 本地AI编程助手,支持多种模型 |
| Agent Client | 对接桥梁 | 让Obsidian能调用AI能力 |
整个流程是:Obsidian管理笔记 → MCP Server将笔记向量化并提供搜索API → OpenCode作为AI大脑调用MCP服务 → Agent Client将AI能力集成到Obsidian中。
在开始安装之前,请确保你的电脑上已安装:
查看安装状态:
node --version npm --version ollama --version
访问 https://obsidian.md 下载并安装Obsidian客户端。创建或选择一个笔记库(Vault)作为你的知识库。
从 https://ollama.com 下载并安装Ollama。
# 拉取轻量级嵌入模型(推荐) ollama pull nomic-embed-text # 或者使用阿里Qwen的嵌入模型 ollama pull qwen3-embedding:0.6b
ollama serve
Ollama会自动在 http://localhost:11434 提供OpenAI兼容的API。
| 配置项 | 值 |
|---|---|
| API Endpoint | http://localhost:11434/v1 |
| Model Name | nomic-embed-text |
| API Key | ollama (任意值) |
索引完成后,你的所有笔记都具备了语义搜索能力!
在命令面板执行"Start MCP Server",服务默认在 http://localhost:9080/sse 运行。
npminstall -g opencode-ai
查看安装路径:
where opencode
创建配置文件 ~/.config/opencode/opencode.json:
{"$schema":"https://opencode.ai/config.json","mcp":{"my-obsidian-knowledge":{"type":"remote","url":"http://localhost:9080/sse","enabled":true}},"model":{"provider":"ollama","model":"qwen2.5:7b"}}
运行OpenCode:
opencode
在交互界面输入:
/mcps
如果能看到"my-obsidian-knowledge"已连接,说明配置成功!
| 配置项 | 值 |
|---|---|
| Agent ID | openCode |
| Display name | openCode |
| Path | 你电脑上opencode.cmd的完整路径 |
| Arguments | acp |
在Agent配置中添加环境变量:
OPENAI_API_KEY=sk-your-key OPENAI_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1 OPENAI_MODEL=qwen3-coder-plus
或者如果你使用本地Ollama:
OPENAI_API_KEY=ollama OPENAI_BASE_URL=http://localhost:11434/v1 OPENAI_MODEL=qwen2.5:7b
现在,你可以在Obsidian中:
示例1:语义搜索笔记
'帮我找找关于React Hooks的笔记'
示例2:基于笔记问答
'根据我的学习笔记,解释一下什么是闭包?'
示例3:写作辅助
'帮我整理一下这篇会议记录的重点'
OpenCode支持添加多个MCP服务,例如文件系统MCP:
{"mcp":{"my-obsidian-knowledge":{"type":"remote","url":"http://localhost:9080/sse","enabled":true},"filesystem":{"type":"local","enabled":true,"command":["npx","-y","@modelcontextprotocol/server-filesystem","D:/projects"]}}}
如果本地模型不够强大,可以使用阿里云百炼、OpenAI等云端服务:
{"model":{"provider":"openai","model":"gpt-4","apiKey":"sk-xxx","baseUrl":"https://api.openai.com/v1"}}
确保Ollama正在运行,且嵌入模型已正确安装。
尝试重新索引知识库,或更换嵌入模型。
检查 http://localhost:9080/sse 是否可访问,防火墙是否阻止。
通过以上步骤,你已经成功搭建了一个本地私有化的AI知识库:
✅ 数据完全本地存储,隐私安全有保障
✅ 支持语义搜索,快速定位相关内容
✅ AI深度集成,问答、写作、整理样样精通
✅ 可扩展性强,可接入多种MCP服务
这个组合让Obsidian从一个简单的笔记软件摇身变成了真正的AI知识管理助手!快去试试吧!
如果觉得有帮助,欢迎转发分享!有问题欢迎在评论区留言讨论。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML转Markdown 互为补充。 在线工具,Markdown转HTML在线工具,online
将 HTML 片段转为 GitHub Flavored Markdown,支持标题、列表、链接、代码块与表格等;浏览器内处理,可链接预填。 在线工具,HTML转Markdown在线工具,online
通过删除不必要的空白来缩小和压缩JSON。 在线工具,JSON 压缩在线工具,online