Obsidian Copilot API密钥配置终极指南:OpenRouter、Gemini、OpenAI一步到位

Obsidian Copilot 是一个强大的AI助手插件,它能将智能对话功能直接集成到你的Obsidian笔记中。要充分发挥其潜力,正确配置API密钥是关键第一步。本指南将手把手教你如何配置OpenRouter、Google Gemini和OpenAI等主流AI提供商的API密钥,让你轻松享受智能笔记体验。✨

【免费下载链接】obsidian-copilotA ChatGPT Copilot in Obsidian 项目地址: https://gitcode.com/gh_mirrors/ob/obsidian-copilot

🔑 为什么需要配置API密钥?

Obsidian Copilot 本身不提供AI模型服务,它需要连接外部的AI服务提供商。配置API密钥后,你可以:

  • 在笔记中直接与AI对话
  • 智能分析和总结笔记内容
  • 自动生成文章大纲和草稿
  • 基于你的知识库进行问答

🚀 快速开始:配置API密钥

步骤1:打开API密钥设置

在Obsidian Copilot的设置界面中,点击"API Keys"区域的"Set Keys"按钮,即可进入API密钥配置对话框。

步骤2:配置OpenRouter API密钥

OpenRouter是一个聚合平台,可以访问多种AI模型。配置方法:

  1. 访问 OpenRouter官网 注册账号
  2. 在API密钥管理页面获取你的密钥
  3. 在Copilot的API密钥对话框中粘贴密钥

步骤3:配置Google Gemini API密钥

Gemini是Google的最新AI模型,配置步骤:

  1. 前往 Google AI Studio
  2. 创建API密钥并复制
  3. 在相应字段中输入密钥

步骤4:配置OpenAI API密钥

如果你有OpenAI账号,也可以直接配置:

  1. 登录 OpenAI平台
  2. 进入API密钥管理页面
  3. 生成新的密钥并保存

📋 主流AI提供商配置详解

OpenRouter配置

  • 优势:支持多种模型,成本较低
  • 适用场景:日常对话、文本分析
  • 推荐模型:Gemini 2.5 Flash、Claude 3 Sonnet

Google Gemini配置

  • 优势:与Google生态深度整合,免费额度
  • 适用场景:与Google文档联动、多模态处理

OpenAI配置

  • 优势:模型成熟稳定,功能全面
  • 适用场景:复杂推理、代码生成

🛠️ 高级配置技巧

自定义模型添加

在模型设置界面,你可以添加自定义模型:

模型验证与测试

配置完成后,建议进行模型验证:

  • 检查API密钥是否正确
  • 测试模型响应速度
  • 验证功能是否正常

💡 实用配置建议

  1. 多提供商备份:建议配置2-3个不同提供商的API密钥,确保服务稳定性
  2. 成本控制:设置使用限额,监控API使用量
  3. 模型选择:根据任务类型选择合适的模型

🔒 安全注意事项

  • API密钥是敏感信息,请妥善保管
  • 不要在公开场合分享你的密钥
  • 定期更换密钥以提高安全性

🎯 总结

通过本指南,你已经掌握了Obsidian Copilot API密钥配置的核心技能。正确配置API密钥后,你将能够:

✅ 在Obsidian中享受无缝的AI对话体验
✅ 基于个人知识库进行智能问答
✅ 提升笔记整理和创作效率

现在就开始配置你的API密钥,开启智能笔记新时代!🚀

【免费下载链接】obsidian-copilotA ChatGPT Copilot in Obsidian 项目地址: https://gitcode.com/gh_mirrors/ob/obsidian-copilot

Read more

2026新手小白AI创业变现指南(二)- AI写作辅助平台

2026新手小白AI创业变现指南(二)- AI写作辅助平台

刚刚更新了2026新手小白AI创业变现指南l列表,新增加了测试过的炼字工坊、蛙蛙写作、笔杆平台(学术论文平台,非通用写作平台)。想简单介绍下,详情请点击2026新手小白AI创业变现指南(一)中平台列表中平台名称看详细介绍。 一、炼字工坊 平台基础信息 项目内容平台名称炼字工坊官方网址https://lianzigongfang.com平台介绍专为网文/剧本/漫剧作者设计的AI创作平台,帮你把精力花在“故事和表达”上,把重复、耗时、卡壳的部分交给AI。相比通用AI,炼字工坊在长篇稳定性上有明显优势。它用「问答+抽卡」帮你定题材卖点,用「设定库」自动归档世界观和角色,用「分层大纲」把控剧情节奏,用「续写润色」解决卡文问题。最重要的是:你的作品不会用于AI训练,版权完全归你。核心定位长篇创作的全流程辅助,从灵感、设定到续写、润色,让你专注创作本身。 🎯 它和通用AI(如DeepSeek、千问)

【论文阅读】ColorFlow: Retrieval-Augmented Image Sequence Colorization

【论文阅读】ColorFlow: Retrieval-Augmented Image Sequence Colorization

基于检索增强的漫画/图片序列上色任务。 intro 现有问题:不是把一张黑白图随便上色,而是要在同一角色跨多张分镜/多帧时,尽量保持发色、衣服配色等“身份颜色(ID color)”一致,而且还要让操作流程“像工具”一样好用:不需要为每个角色单独 finetune,也不强行抽取显式的 ID embedding。论文把整个方案拆成三个阶段:RAP(检索增强)、ICP(in-context 扩散上色)、GSRP(引导式超分复原)。 任务设定:Reference-based Image Sequence Colorization * 输入:一张待上色的黑白图(来自漫画/分镜序列中的某一帧)+ 一个“参考图池”(同章节或同序列里若干张已经有颜色的图)。 * 输出:一张彩色结果,要求在序列层面尽量保持角色/物体的颜色身份一致(例如同一角色的头发颜色在多帧一致)。 * 关键难点:参考池里信息多、分镜构图变化大、同角色会变形/

OpenClaw之Memory配置成本地模式,Ubuntu+CUDA+cuDNN+llama.cpp

文章目录 * 背景:Memory不生效的问题 * OpenClaw的Memory配置 * Ubuntu24.04安装CUDA和cuDNN * 编译llama.cpp * 验证方案1: * 验证方案2:下载并运行Llama-2 7B模型 * 安装node-llama-cpp * 验证Memory * sqlite-vec unavailable * 踩过的坑 * 安装node-llama-cpp的一些提示 * 安装node-llama-cpp的前置条件 * Using `node-llama-cpp` With Vulkan 承接上文:Windows11基于WSL2首次运行Openclaw,并对接飞书应用,我已经在电脑上安装了OpenClaw,接下来解决Memory问题。走了很多弯路,下面主要讲我总结的正确的安装过程。 总结来说:针对Memory不生效的问题,又不想用OpenAI或Gemini,或者只想单纯的节省token,可以按照如下的方式,设置为local模式: * 修改openclaw.json配置 * 安装CUDA和cu

论文阅读详细版K-RagRec:Knowledge Graph Retrieval-Augmented Generation for LLM-based Recommendation

摘要(Abstract) 翻译 推荐系统在我们的日常生活中变得越来越重要,有助于缓解各类面向用户的在线服务中的信息过载问题。大语言模型(LLMs)的出现取得了显著成就,展现出其推动下一代推荐系统发展的潜力。尽管取得了这些进展,基于大语言模型的推荐系统仍面临源于其模型架构的固有局限性,尤其是幻觉问题(生成虚假信息)以及缺乏最新知识和领域特定知识的问题。近年来,检索增强生成(RAG)技术受到了广泛关注,它通过利用外部知识源来增强大语言模型的理解和生成能力,从而解决这些局限性。然而,传统的 RAG 方法往往会引入噪声,并且忽略了知识中的结构化关系,这限制了它们在基于大语言模型推荐系统中的效果。为了解决这些问题,我们提出从知识图谱中检索高质量、最新的结构化信息,以增强推荐效果。具体而言,我们设计了一个检索增强框架,名为 K-RagRec,该框架通过整合外部知识图谱的结构化信息,助力推荐生成过程。我们进行了大量实验,验证了所提方法的有效性。 讲解 * 摘要就是论文的 “浓缩版故事”,核心逻辑: 1. 背景:推荐系统很重要,大语言模型能做推荐,但有两个大问题 ——“瞎编(幻觉)”