Obsidian+Claude Code打造本地AI知识库

Claudian + Obsidian Skills

1. 核心组件

  • Claudian: Obsidian 第三方插件(暂未上架官方市场),适配 Claude Code。
  • Obsidian Skills: 由 Obsidian CEO (Kepano) 发布的 Skill 包,赋予 AI 处理 Canvas、Markdown 及数据库的能力。

2. 环境部署流程

2.1 安装 Claudian 插件 (手动旁加载)

  1. 获取文件: 访问 GitHub 仓库 claudian,下载以下三个核心文件:
    • main.js
    • manifest.json
    • styles.css
  2. 放置插件:
    • 进入 Obsidian 仓库根目录。
    • 路径导航: .obsidian -> plugins
    • 新建文件夹命名为 claudian
    • 将上述三个文件放入该文件夹。
  3. 启用: 重启 Obsidian,在“第三方插件”中开启 Claudian。

2.2 配置模型参数

  1. 打开 Claudian 设置页。
  2. 基础设置: 设置 User Name (如 Jason)。
  3. 自定义AI模型: 使用智谱GLM或DeepSeek来替换Claude模型。
ANTHROPIC_BASE_URL=https://open.bigmodel.cn/api/anthropic ANTHROPIC_API_KEY=你的智谱api key ANTHROPIC_DEFAULT_OPUS_MODEL=GLM-5.0 
我今天试了一下新发布的glm5,竟然把我代码里藏了好多天的bug改掉了,感觉还是挺厉害的。
  1. 连通性验证:
    • Ctrl/Cmd + P 调出命令面板 -> 输入 claudian -> 选择 Open chat view
    • 发送“你好”,若回复正常则配置成功。

2.3 部署 Obsidian Skills

  1. 下载: 访问 GitHub 仓库 kepano/obsidian-skills,下载 ZIP 包并解压。
  2. 安装:
    • 复制解压后的 skills 文件夹。
    • 进入 Obsidian 仓库根目录。
    • 进入或新建 .claude 隐藏文件夹。
    • 粘贴 skills 文件夹 (最终路径: [Vault Root]/.claude/skills/)。
  3. 验证: 在 Claudian 对话框输入 /skills,应显示以下三个 Skill:
    • obsidian-markdown: 处理专有 Markdown 语法。
    • json-canvas: 生成/编辑无限画布。
    • obsidian-bases: 数据库管理。
这里其实就跟添加skills的思路是一样的,只是取决于你想要只装在obsidian里面还是全局skills

3. 实战应用与技巧

3.1 典型用例:生成知识图谱

  • 指令: “使用无限画布 canvas 画出地中海饮食的知识结构图,并保存到根目录。”
  • 流程: AI 自动调用 json-canvas skill -> 分析逻辑 -> 在根目录直接生成 .canvas 文件。

3.2 优化

由于 Skill 定义为英文,中文指令可能导致匹配偏差,建议方案:

  • 显式指令: 在 Prompt 中明确指定工具名 (如“请使用 json-canvas skill…”)。
  • 系统提示词 (System Prompt): 在插件设置中添加规则 —— “收到指令后优先思考并匹配最合适的 Skill”。

4. 为什么obsidian不做agent

  • 官方态度 (Stephan Ango/Kepano):
    • 发布渠道: 选择在个人 GitHub 账号而非 Obsidian 官方账号发布,体现了 “非官方强制” 的定位。
    • 核心哲学: 知行合一。坚持 Local-firstPrivacy-first,不构建封闭的官方 AI 环境,也不参与 AI 军备竞赛。
  • 差异化优势:
    • 不同于 Notion 的云端封闭生态。
    • Obsidian 文件完全本地化,鼓励用户基于隐私安全,“手搓”适合自己的 AI Agent。

Read more

FPGA加速图像处理:核心算法全解析

FPGA加速图像处理:核心算法全解析

FPGA(现场可编程门阵列)在图像处理领域因其并行处理能力、低延迟、高能效和可定制化 的特点而极具优势,特别适合于实时性要求高、算法固定、功耗受限 的应用场景。 以下是FPGA上常实现的主流图像处理算法,按处理流程和类别划分: 一、底层图像预处理(像素级操作) 这类算法高度并行,非常适合FPGA。 1. 色彩空间转换 * RGB转灰度:Y = 0.299R + 0.587G + 0.114B,可通过移位和加法实现,无需乘法器。 * RGB与YCbCr互转:视频压缩(如JPEG, H.264)中的关键步骤,FPGA可以并行计算三个分量。 2. 几何变换 * 旋转、缩放、平移:需要插值算法(如双线性插值、最邻近插值)。FPGA可以并行计算多个输出像素的坐标和插值。 3. 图像校正 * 镜头畸变校正:通过查找表(LUT)

Java Web请求处理链路剖析(从Filter到HandlerInterceptor的完整流程图解)

第一章:Java Web请求处理链路概述 在Java Web应用中,客户端发起的HTTP请求需经过一系列组件协同处理,最终返回响应。这一完整的链路贯穿了从网络通信到业务逻辑执行的多个层次,理解其结构对开发高性能、可维护的Web系统至关重要。 请求进入容器 当客户端发送HTTP请求时,首先由Web服务器(如Tomcat)接收。服务器基于配置的端口监听请求,并将原始HTTP数据封装为 HttpServletRequest 对象,同时创建 HttpServletResponse 用于输出响应。 Servlet生命周期管理 请求被映射到指定的Servlet进行处理。容器根据web.xml或注解配置确定目标Servlet,并确保其实例已初始化。典型的处理流程如下: * 执行 init() 方法完成初始化(仅一次) * 调用 service() 方法分发请求至 doGet() 或 doPost() * 由具体方法生成响应内容并写入输出流 * 容器自动关闭响应,发送数据回客户端 过滤器与拦截机制 在请求到达Servlet前,可配置多个 Filter 实现横切关注点处理,如日志

WebArena:一个真实的网页环境,用于构建更强大的自主智能体

WebArena:一个真实的网页环境,用于构建更强大的自主智能体

WebArena:一个真实的网页环境,用于构建更强大的自主智能体 最近,在 ICLR 2024 上发表了一篇来自卡内基梅隆大学的论文——WebArena: A Realistic Web Environment for Building Autonomous Agents(arXiv: 2307.13854)。这篇论文提出并实现了一个高度逼真、可复现的网页环境,专门用于开发和评估基于自然语言指令的自主智能体(Autonomous Agents)。今天这篇博客就来详细介绍这篇论文:它到底想解决什么问题、如何解决,以及其中的关键细节。 解决什么问题? 随着大语言模型(如 GPT-4)的快速发展,研究者们开始探索让 AI 智能体通过自然语言指令完成日常任务,比如“帮我在网上买个东西”或“去 GitLab 上更新 README”。然而,现有的智能体评估环境存在几个严重问题: 1. 过于简化、不真实:很多环境(

Tauri 架构从“WebView + Rust”到完整工具链与生态

Tauri 架构从“WebView + Rust”到完整工具链与生态

1. Tauri 不是什么 理解边界会更快建立正确心智模型: * 它不是“轻量内核包装器(kernel wrapper)”,而是直接使用 WRY(WebView 层)与 TAO(窗口与事件循环)去做底层系统交互。 (Tauri) * 它不是 VM 或虚拟化环境,而是一个应用工具箱:你构建的是标准的 OS 应用,只是 UI 用 Web 技术渲染。 (GitHub) 2. 总体分层:从 UI 到系统调用的一条链路 你可以把 Tauri 的架构拆成 4 层:前端、桥接、运行时、上游底座。 TAO 和 WRY 是 Tauri 团队维护的关键“