保姆级教程| Obsidian +Claudian 搭建AI 时代下最好的知识管理方案

保姆级教程| Obsidian +Claudian 搭建AI 时代下最好的知识管理方案

保姆级教程| Obsidian +Claudian 搭建AI 时代下最好的知识管理方案

OBSIDIAN

AI COGNITIONFLOW

让你的笔记从信息坟场变成AI知识引擎

💡把“死笔记”变成“活资产”的终极方案

1一句话变思维导图

COMMAND

/obsidian帮我把这篇文章画成思维导图

可拖拽、可展开、可链接——比纯文字清晰 10 倍

2AI 帮你追踪项目进度

CHAT

帮我看看这个项目目前的进展,哪些完成了,哪些还没做

AI 自动读取项目笔记,汇总进度、列出待办、提醒遗漏

3公众号一键排版输出

正文开始

从 Notion 到Obsidian ,从 Roam Research 到 Logseq — 笔记软件永远是效率圈最热的战场。双链、大纲、白板、数据库……我们折腾插件、迁移数据,乐此不疲。

QUESTION

我们到底在管理什么?

表面上是文件、笔记、待办。本质上,是外化的记忆 ——从大脑流出、被文字固定的思考痕迹

我们以为,存下来就是「管好了」

但有一个残酷的事实:

INSIGHT

“笔记只有信息,没有知识”

知识是什么?是用于行动的信息——能辅助决策、能带来改变的东西

你存下来的会议记录、读书笔记、灵感碎片——如果从未被调用、从未影响任何决策,它们就只是信息

它们是死的,成了数字坟场里的墓碑

AI 时代,答案变了

我们需要的不是更好的存储工具,而是能帮你把信息变成知识 的**伙伴, 正如开头演示的一样,从被动存储,进化为主动生产**

NEXT STEP

接下来教你 15 分钟搭起这个 AI 笔记系统

Obsidian +Claudian +智谱 AI + 新手包

公众号后台回复**“AI笔记系统”** 获取

不需要梯子,不需要编程,数据100% 在你自己电脑上

准备好了吗?让我们开始吧

01

PHASE ONE/ 安装

STEP 1

安装Obsidian

1.1 下载软件

Obsidian 是什么?

一款免费的笔记软件,支持 Markdown 格式,最大特点是可以把笔记像网页一样互相链接,形成你自己的知识网络

下载地址

公众号后台回复**“AI笔记系统”** 获取新手包

Mac 用户

Obsidian-1.10.6.dmg

Windows 用户

Obsidian-1.10.6.exe

双击安装,一路下一步即可

1.2 下载数字仓库(开箱即用)

这是什么?

我们准备了一个开箱即用 的仓库文件夹,里面已经帮你配好了:

✓Claudian 插件
✓4 个 Skills 技能包
✓MCP 服务器配置
✓快捷指令

你不需要手动安装任何插件,下载解压就能用!

操作步骤:

在飞书文档下载数字仓库.zip

解压到你喜欢的位置(推荐放在iCloudOneDrive 里,这样可以多设备同步)

1.3 用 Obsidian 打开仓库

1. 打开 Obsidian,会看到欢迎界面
2. 左下角切换语言为简体中文
3. 点击「打开本地仓库 」(不是创建新仓库!)
4. 选择刚才解压的数字仓库文件夹
5. 点击「打开

⚠️ 重要提示

首次打开会询问是否信任此仓库的插件,点击「信任作者并启用插件 」。

🎉 恭喜!

插件和技能包已经自动生效,不需要额外配置!

STEP 2

安装 Claude Code

2.1 为什么要装这个?

简单理解

Claudian 插件需要依赖 Claude Code 才能运行。Claude Code 是 Anthropic 官方的命令行工具,Claudian 通过它来调用 AI 能力。

2.2 安装步骤

Mac / Linux 用户:

打开终端,运行:

curl -fsSL https://claude.ai/install.sh | bash

Windows 用户:

1. 先安装 Git for Windows

2. 打开 PowerShell,运行:

irm https://claude.ai/install.ps1 | iex

2.3 验证安装

安装完成后,在终端运行:

claude --version

如果显示版本号,说明安装成功!

STEP 3

安装 CC Switch

3.1 CC Switch 是干什么的?

简单理解

因为 Claude 官方的 AI 服务在国内不太好用(你懂的),所以我们用 CC Switch 这个工具,把请求转发到国内的智谱 AI,不需要梯子,速度还快

3.2 下载安装

安装包下载

公众号后台回复**“AI笔记系统”** 获取

Mac 用户

CC-Switch-v3.9.1-macOS.zip

Windows 用户

CC-Switch-v3.9.1-Windows-Portable.zip

安装步骤:

下载对应你系统的安装包

解压后双击打开 CC Switch

安装完成!

02

CONFIGURATION/ 配置

安装已经完成!

接下来我们要做的是:告诉这些软件去哪里找 AI 服务。别担心,虽然看起来步骤多,但每一步都很简单,跟着截图做就行。

STEP 4

注册智谱平台 & 获取 API Key

4.1 注册账号

打开智谱开放平台:https://open.bigmodel.cn

用微信扫码登录最方便

扫码后绑定一下手机号

这个页面直接点「跳过」就行

4.2 实名认证

需要做一下实名认证(和注册微信差不多,刷个脸就行)

4.3 订阅套餐

选择GLM Coding Lite 套餐

· 首月 ¥20
· 之后 ¥40/月
· AI 调用次数不限

扫码付款

付款成功后,可以在这里看到你的订阅状态

4.4 复制 API Key

点击「添加新的 API Key」

点击复制按钮,把这串密钥保存好 ,后面要用!


STEP 5

在 CC Switch 里配置智谱

这一步做什么?

把刚才复制的 API Key 填到 CC Switch 里,让它知道去哪里调用 AI。

5.1 添加智谱

打开 CC Switch,点击右上角的**+** 号

选择「Claude Code 供应商」,然后点击Zhipu GLM

5.2 填入 API Key

把刚才复制的 API Key 粘贴进去,主模型填glm-4.7

点保存,搞定!

STEP 6

MCP 服务器(已帮你配好)

MCP 服务器已经在仓库里配好了,无需额外操作!

MCP 是什么?简单说,智谱的 AI 模型虽然很聪明,但它看不了图片、上不了网。MCP 服务器就是给 AI 装上「眼睛」和「网线」。

我们已经帮你配好了 4 个 MCP 服务器:

zai-mcp-server

视觉理解:看懂截图、图片,甚至分析视频

web-search-prime

联网搜索:获取实时信息、搜索最新资料

web-reader

网页读取:抓取网页内容、提取结构化数据

zread

开源仓库:访问 GitHub 等开源项目的文档和代码

怎么用?

在对话框里输入@就能呼出 MCP 列表,选择你需要的能力。

打开仓库就能用,不需要额外配置。

6.1 如何自己添加 MCP

可以点击左下角小齿轮打开设置页面,打开 Claudian 的 MCP 服务器选项,可以添加,也可以通过对话形式让 Claudian 给你添加 MCP


STEP 7

关于技能包(开箱即用)

7.1 什么是 Skill?(给 AI 定制工作手册)

你可以把Skill(技能包) 理解为给 AI 准备的「工作交接大礼包」——就像培训新同事一样,你把任务流程、工具用法、参考资料都打包好,AI 读取后就能照着干活。

简单理解:Skill 就是你的数字员工,你给它工作手册,它就能帮你干活。

一个 Skill 通常包含:

SKILL.md工作 SOP

核心指令,告诉 AI 这个技能是干嘛的、怎么用

scripts/工具使用说明

可执行代码,AI 直接调用,不用自己写

references/参考资料

参考文档,AI 需要时才读取

assets/工作素材包

模板、图片等素材

为什么用 Skill 比普通聊天更强?

普通聊天

每次都要解释一遍「怎么做」

用 Skill

一次配置,永久复用

普通聊天

AI 可能忘记你说过的规则

用 Skill

AI 会按你的 SOP 干活

普通聊天

遇到问题临时编程解决

用 Skill

直接调用现成脚本,又快又准

7.2 本仓库已装好的技能包

obsidian-markdown

让 AI 能正确处理 Obsidian 的特殊语法

obsidian-bases

让 AI 能创建数据库视图

json-canvas

让 AI 能画思维导图和流程图

skill-creator

让 AI 帮你创建新的技能包

7.3 如何自己创建新技能

在对话里输入/创建技能把你的需求、资料发给 Claudian,它会帮你创建

7.4 如何让 AI 使用这些 Skill

提示词明确说技能名称,或者输入/创建指令给 Skill 技能包创建启动指令,方便输入框使用

03

GET STARTED/ 第三阶段:开始使用

恭喜!配置全部完成!

接下来学几个常用命令,你就可以开始 AI 辅助写笔记了。

STEP 8

基本操作

在 Claudian 对话框里输入/,就会弹出所有可用的命令列表:

选择一个命令回车即可执行。你也可以直接输入完整命令名,比如/para-整理收集

STEP 9

常用命令速查

9.1 PARA 工作流命令

这是本仓库的核心命令,帮你管理数字资产:

/para-整理收集每天/每周

整理收集箱里的内容

/para-库概览随时查看

查看库的整体状态

用法示例:

/para-整理收集

/para-库概览

其他操作直接说就行

不需要记太多命令,直接跟 AI 说:

· “帮我把这个保存到收集箱”
· “新建一个叫 xxx 的项目”
· “把 xxx 项目归档”

AI 会按照 PARA 规则自动处理。

9.2 /obsidian 命令

这个命令会自动调用Obsidian官方技能包,根据你的需求智能选择:

画思维导图、流程图

→ json-canvas 技能包

创建数据库视图、看板

→ obsidian-bases 技能包

处理 Markdown 笔记

→ obsidian-markdown 技能包

用法示例:

/obsidian帮我画一个项目进度的思维导图

/obsidian创建一个项目管理看板

/obsidian帮我整理这篇笔记的格式

9.3 直接对话也行

其实你不用记命令,直接跟 AI 说话就行:

帮我总结这篇笔记的核心观点

帮我分析一下这张截图里的错误

帮我搜索一下 xxx 的最新资料

把这篇笔记翻译成英文

AI 会自动读取你当前笔记的内容,给出针对性的回答。

9.4 创建你自己的命令和技能

命令不是固定的,你可以让 AI 帮你创建!

/创建指令

创建简单的 Command 指令

/创建技能

创建复杂的 Skill 技能包

比如你想要一个「日报」命令:

/创建指令日报 扫描今天编辑过的所有笔记,生成日报

AI 会自动在.claude/commands/文件夹里创建对应的命令文件。下次你输入/日报就能直接用了。

想要什么命令,跟 AI 说一声就行。

小提醒

每次创建或修改命令/技能后,需要重启 Obsidian 或者插件 才能生效。

大功告成!

恭喜你完成了所有配置!

· · · · · · ·

Read more

Meta-Llama-3-8B-Instruct代码能力测试:HumanEval45+实现解析

Meta-Llama-3-8B-Instruct代码能力测试:HumanEval45+实现解析 1. 引言 随着大模型在代码生成领域的持续演进,Meta于2024年4月发布的Meta-Llama-3-8B-Instruct成为中等规模模型中的焦点。该模型以80亿参数量实现了令人瞩目的代码生成能力,在HumanEval基准上得分超过45,显著优于Llama 2系列,并接近部分闭源模型的表现水平。 本篇文章将围绕Meta-Llama-3-8B-Instruct的代码生成能力展开深度解析,重点分析其在HumanEval任务上的表现机制与工程实践路径。同时,结合vLLM推理加速框架和Open WebUI构建完整的本地化对话应用系统,展示从模型部署到交互体验的一站式解决方案。 2. 模型核心特性与技术背景 2.1 基本架构与性能定位 Meta-Llama-3-8B-Instruct是Llama 3系列中面向指令遵循优化的80亿参数密集模型(Dense Model),采用标准Transformer解码器结构,支持原生8k上下文长度,可外推至16k token,适用于长文档理解、多轮

【AIGC】冷启动数据与多阶段训练在 DeepSeek 中的作用

【AIGC】冷启动数据与多阶段训练在 DeepSeek 中的作用

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |ChatGPT 文章目录 * 💯前言 * 💯冷启动数据的作用 * 冷启动数据设计 * 💯多阶段训练的作用 * 阶段 1:冷启动微调 * 阶段 2:推理导向强化学习(RL) * 阶段 3:拒绝采样与监督微调(SFT) * 阶段 4:多场景强化学习 * 💯代码示例:冷启动数据与多阶段训练的实现 * 1. 冷启动微调阶段 * 作用与应用: * 2. 推理导向的强化学习阶段 * 作用与应用: * 3. 拒绝采样与监督微调阶段 * 作用与应用: * 4. 多场景强化学习 * 作用与应用: * 总体流程 * DeepSeek 中的应用 * 💯总结 💯前言 在人工智能领域,深度学习模型的训练和优化往往需要大量的标注数据和计算资源。然而,面对复杂任务时,即使是最先进的技术和大量的训练数据也未必能够保证模型的最优表现。DeepSeek

【Copilot配置】—— copilot-instructions.md vs AGENTS.md vs .instructions.md三种指令文件解析与配置

【Copilot配置】—— copilot-instructions.md vs AGENTS.md vs .instructions.md三种指令文件解析与配置

Copilot 指令文件全解析:copilot-instructions.md vs AGENTS.md vs .instructions.md 作为常年和 VS Code 打交道的研发,最近在折腾 Copilot Agent 时,我发现很多同学和我一样,被 .github/copilot-instructions.md、AGENTS.md 和 .instructions.md 这三个文件绕晕了。 明明都是给 Copilot 写的 “指令”,为什么要分三个文件?它们的生效范围有啥区别?什么时候该用哪一个? 带着这些疑问,我翻遍了官方文档,又在自己的 AI Agent 项目里反复实测,终于把这三者的关系理得清清楚楚。这篇文章就用最直白的语言,结合实战配置,帮你彻底搞懂 Copilot 指令文件的使用逻辑。 一、先搞懂核心:

在魔乐社区使用llama-factory微调Qwen3.5-4B模型

在魔乐社区使用llama-factory微调Qwen3.5-4B模型

微调前期准备 下载qwen3.5-4B模型 # 首先保证已安装git-lfs(https://git-lfs.com)git lfs installgit clone https://modelers.cn/Qwen-AI/Qwen3.5-4B.git 下载Llama-factory git clone --depth1 https://gh.llkk.cc/https://github.com/hiyouga/LlamaFactory.git 微调环境搭建 我们依然是搭建一个miniconda #清除当前shell会话中的PYTHONPATH环境变量unset PYTHONPATH # 安装minicondawget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-aarch64.sh bash Miniconda3-latest-Linux-aarch64.sh conda config --set