手把手教你打造本地私有化AI知识库:Obsidian + OpenCode + Agent Client + MCP Server 完全指南

手把手教你打造本地私有化AI知识库:Obsidian + OpenCode + Agent Client + MCP Server 完全指南

在AI时代,拥有一个高效、私密、可控的个人知识库变得尤为重要。本文将详细介绍如何利用Obsidian + OpenCode + Agent Client + MCP Server这四件套,在本地搭建一个完全私有化的AI知识管理系统。所有数据都存储在你的电脑上,无需联网即可享受AI带来的便捷!


一、整体架构概述

在开始之前,让我们先了解这四个工具的角色:

工具角色作用
Obsidian笔记管理本地Markdown笔记管理,支持双向链接
MCP Server知识索引将笔记向量化,建立语义搜索能力
OpenCodeAI大脑本地AI编程助手,支持多种模型
Agent Client对接桥梁让Obsidian能调用AI能力

整个流程是:Obsidian管理笔记 → MCP Server将笔记向量化并提供搜索API → OpenCode作为AI大脑调用MCP服务 → Agent Client将AI能力集成到Obsidian中。


二、环境准备

在开始安装之前,请确保你的电脑上已安装:

  1. Node.js (推荐v18或更高版本)
  2. Ollama (用于本地运行嵌入模型)
  3. npm (Node.js包管理器)

查看安装状态:

node --version npm --version ollama --version 

三、第一步:安装和配置Obsidian

3.1 下载安装Obsidian

访问 https://obsidian.md 下载并安装Obsidian客户端。创建或选择一个笔记库(Vault)作为你的知识库。

3.2 安装必要插件

  1. 安装BRAT插件
    • 打开设置 → 社区插件 → 关闭安全模式
    • 点击浏览,搜索"BRAT"并安装
  2. 通过BRAT安装Agent Client Plugin
    • 启用BRAT后,点击"Add Beta plugin"
    • 输入:https://github.com/agent-client/obsidian-agent-client
  3. 安装Obsidian MCP Server
    • 同样通过BRAT安装: https://github.com/Minhao-Zhang/obsidian-mcp-server

四、第二步:配置Ollama和向量化模型

4.1 安装Ollama

从 https://ollama.com 下载并安装Ollama。

4.2 拉取嵌入模型

# 拉取轻量级嵌入模型(推荐) ollama pull nomic-embed-text # 或者使用阿里Qwen的嵌入模型 ollama pull qwen3-embedding:0.6b 

4.3 启动Ollama服务

ollama serve 

Ollama会自动在 http://localhost:11434 提供OpenAI兼容的API。


五、第三步:配置Obsidian MCP Server

5.1 配置嵌入模型

  1. 打开Obsidian设置,找到MCP Server插件
  2. 在"Embedding Model"部分进行配置:
配置项
API Endpointhttp://localhost:11434/v1
Model Namenomic-embed-text
API Keyollama (任意值)
  1. 点击"Verify"测试连接

5.2 索引知识库

  1. 按 Ctrl/Cmd+P 打开命令面板
  2. 执行"Re-index Vault (MCP Server)"
  3. 等待索引完成

索引完成后,你的所有笔记都具备了语义搜索能力!

5.3 启动MCP Server

在命令面板执行"Start MCP Server",服务默认在 http://localhost:9080/sse 运行。


六、第四步:安装和配置OpenCode

6.1 安装OpenCode

npminstall -g opencode-ai 

查看安装路径:

where opencode 

6.2 配置OpenCode

创建配置文件 ~/.config/opencode/opencode.json

{"$schema":"https://opencode.ai/config.json","mcp":{"my-obsidian-knowledge":{"type":"remote","url":"http://localhost:9080/sse","enabled":true}},"model":{"provider":"ollama","model":"qwen2.5:7b"}}

6.3 验证MCP连接

运行OpenCode:

opencode 

在交互界面输入:

/mcps 

如果能看到"my-obsidian-knowledge"已连接,说明配置成功!


七、第五步:配置Agent Client

7.1 配置自定义Agent

  1. 打开Obsidian的Agent Client插件设置
  2. 点击"Add custom agent",配置如下:
配置项
Agent IDopenCode
Display nameopenCode
Path你电脑上opencode.cmd的完整路径
Argumentsacp

7.2 环境变量配置

在Agent配置中添加环境变量:

OPENAI_API_KEY=sk-your-key OPENAI_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1 OPENAI_MODEL=qwen3-coder-plus 

或者如果你使用本地Ollama:

OPENAI_API_KEY=ollama OPENAI_BASE_URL=http://localhost:11434/v1 OPENAI_MODEL=qwen2.5:7b 

六、第六步:开始使用

6.1 在Obsidian中调用AI

现在,你可以在Obsidian中:

  1. 使用命令面板调用Agent
  2. 让AI帮你搜索知识库中的相关内容
  3. 让AI根据你的笔记回答问题

6.2 使用示例

示例1:语义搜索笔记

“帮我找找关于React Hooks的笔记”

示例2:基于笔记问答

“根据我的学习笔记,解释一下什么是闭包?”

示例3:写作辅助

“帮我整理一下这篇会议记录的重点”

七、进阶扩展

7.1 添加更多MCP服务

OpenCode支持添加多个MCP服务,例如文件系统MCP:

{"mcp":{"my-obsidian-knowledge":{"type":"remote","url":"http://localhost:9080/sse","enabled":true},"filesystem":{"type":"local","enabled":true,"command":["npx","-y","@modelcontextprotocol/server-filesystem","D:/projects"]}}}

7.2 使用云端大模型

如果本地模型不够强大,可以使用阿里云百炼、OpenAI等云端服务:

{"model":{"provider":"openai","model":"gpt-4","apiKey":"sk-xxx","baseUrl":"https://api.openai.com/v1"}}

八、常见问题

Q1: MCP Server启动失败?

确保Ollama正在运行,且嵌入模型已正确安装。

Q2: 向量搜索结果不准确?

尝试重新索引知识库,或更换嵌入模型。

Q3: OpenCode无法连接MCP?

检查 http://localhost:9080/sse 是否可访问,防火墙是否阻止。


总结

通过以上步骤,你已经成功搭建了一个本地私有化的AI知识库:

数据完全本地存储,隐私安全有保障
支持语义搜索,快速定位相关内容
AI深度集成,问答、写作、整理样样精通
可扩展性强,可接入多种MCP服务

这个组合让Obsidian从一个简单的笔记软件摇身变成了真正的AI知识管理助手!快去试试吧!


如果觉得有帮助,欢迎转发分享!有问题欢迎在评论区留言讨论。

Read more

VSCode自定义Copilot Agent与Awesome Agent

VSCode自定义Copilot Agent与Awesome Agent

本文将介绍如何在VSCode中创建自定义的Agent,以及哪里可以获取到现有的Agent模板 当我们在VSCode中使用Copilot时,可以选择以下几种模式。 Ask, Edit, Agent, 以及在2025年末时我们可以使用的全新的Plan模式。 不过除此之外,其实我们还有办法自定义属于自己的Agent。 选择右下角Agent菜单,选择Configure Custom Agents... 如选择.github\agents 则会在本工作区域中生成该路径并创建一个指定命名的agent.md文件 如果选择User Data则是会创建全局的Agent模板 在vscode中,也可以直接在文件中通过Configure Tools轻松配置所需要使用的tools,非常方便。 然后我们便可以在copilot中使用自己的Agent了. 当然,自己编写一个相对复杂的agent模板比较耗时,而awesome-copilot项目为我们提供了许多的模板,当然不止是agent,也提供了丰富的提示词模板(prompt)和指导词模板(instructions),以及

VsCode远程连接服务器后安装Github Copilot无法使用

VsCode远程连接服务器后安装Github Copilot无法使用

VsCode远程连接服务器后安装Github Copilot无法使用 1.在Vscode的settings中搜索Extension Kind,如图所示: 2.点击Edit in settings.json,添加如下代码: "remote.extensionKind":{"GitHub.copilot":["ui"],"GitHub.copilot-chat":["ui"],} remote.extensionKind 的作用 这是 VS Code 的远程开发配置项,用于控制扩展在远程环境(如 SSH、容器、WSL)中的运行位置。可选值: “ui”:扩展在本地客户端运行 “workspace”:扩展在远程服务器运行 这两个扩展始终在 本地客户端运行,

低代码AI化:是否正在重构开发行业格局?

低代码AI化:是否正在重构开发行业格局?

当低代码遇上AI,不再是简单的“拖拽+模板”拼凑,而是技术逻辑与业务场景的深度重构。JNPF依托AI能力,将表单、字段、咨询、流程四大核心环节智能化升级,让“不懂代码也能做开发”从噱头落地为现实。这是否意味着,低代码AI化正悄然颠覆整个开发行业的底层逻辑? 一、技术底层重构:从“工具拼接”到“原生智能”         传统低代码的核心局限,在于架构层面的“伪智能”。多数平台仅将AI作为附加插件,通过API调用实现表单生成、字段推荐等基础功能,本质上仍是“模板填充+关键词匹配”的逻辑,既无法深度适配个性化业务场景,也难以突破数据孤岛与功能壁垒。         而JNPF实现的是AI与低代码底层架构的深度耦合,以“原生智能”重构开发链路: * AI表单:摒弃传统模板套取模式,基于NLP语义解析技术,直接将自然语言描述转化为标准化表单。例如输入“客户售后工单系统:包含工单编号、客户信息、问题类型、处理进度、回访记录,支持状态流转与权限管控”

Whisper 模型本地化部署:全版本下载链接与离线环境搭建教程

Whisper 模型本地化部署指南 一、模型版本与下载 Whisper 提供多种规模版本,可通过以下官方渠道获取: 1. GitHub 仓库 https://github.com/openai/whisper 包含最新代码、预训练权重和文档 * tiny.en / tiny * base.en / base * small.en / small * medium.en / medium * large-v2 (最新大模型) Hugging Face 模型库 所有版本下载路径: https://huggingface.co/openai/whisper-{version}/tree/main 替换 {version} 为具体型号: 二、离线环境搭建教程 准备工作 1.