ChiKen: 一款连接 Zotero 文献库与大语言模型的本地 AI 助手
一、设计理念与核心功能
ChiKen 的核心设计思路是隐私优先和本地化运行。我们认为,个人的研究资料是非常私密的数据,因此,所有的文档解析、索引构建和模型交互都应在用户自己的设备上完成。
它主要通过 RAG (检索增强生成) 技术和 MCP (模型上下文协议),让大模型能够'阅读'并理解您的本地文档,从而提供基于您的资料的精准回答。
1. 与 Zotero 无缝集成
- 只需在 Zotero 中开启'允许本机应用访问'的选项,ChiKen 即可安全地读取您的文献集合与条目。
您可以灵活选择 Zotero 中的特定收藏夹(Collections),将其中的文献一键批量创建为一个可供 AI 查询的知识库。

2. 内置三种智能体,适应不同工作流
- 🗨️ 对话 (Chat): 提供一个简洁的界面,让您与选定的知识库进行直接的问答交流。适合快速查询、理解概念或对特定文档进行提问。
- 🔍 搜索 (Search): 整合了五大学术搜索引擎 (OpenAlex, Semantic Scholar, arXiv, PubMed, CrossRef) 的 API,当您需要查找外部资料时,它能为您提供格式化的搜索结果。

- 🔬 深度研究 (Deep Research): 这是一个更综合的模式。它会根据您的议题,同时检索您的本地知识库和在线学术资源,并尝试生成一份初步的研究报告,为您提供一个更高层次的视角。

3. 通过 MCP 连接外部 AI 应用
- 对于希望使用如 Claude Desktop 等更强大的第三方 LLM 客户端的用户,ChiKen 内置了 MCP 服务器。
- 启动该服务后,您的本地知识库可以作为一个'工具'被这些外部应用调用,让您在自己熟悉的、功能更丰富的环境中使用 ChiKen 的检索能力。


二、快速上手指南
我们尽力简化了配置流程,让您可以快速开始。
1. 准备环境
前往项目的 Releases 页面下载适合您操作系统的版本。
支持 PDF,文档解析依赖 Pandoc (版本 2+),请预先安装。
对于本地模型的运行,我们目前主要基于 Ollama 进行开发和测试,它提供了便捷的模型管理和部署方式。推荐使用 ollama/gemma3:27b 等支持较长上下文的模型。
2. 创建知识库
在 ChiKen 设置中,配置好您要使用的 LLM(聊天模型和嵌入模型)。
确认 Zotero 设置中已选择允许与计算机其他应用通讯,然后在 ChiKen 主界面选择您想索引的文献集,点击'创建'即可。创建完成后,知识库会出现在列表中。
3. 开始使用
本地对话:选择'Chat',激活您想查询的知识库,即可开始与本地文献进行对话。
连接外部应用:在右侧边栏启动 MCP 服务器,并根据 GitHub 上的 这份简单教程 将其配置到 Claude Desktop 等客户端中。
三、关于项目名称的由来
我们选择 Zotero,是为了更好地'掌握'(zotëroj)知识。但'掌握'之后,更重要的是形成深刻的'洞见'。
ChiKen 这个名字,取自中文里的'知見',其灵感源于佛学词汇 jñāna-darśana,意指通过深入闻思修而获得的智慧与见地。
我们希望这个工具能帮助用户完成从信息收集 (Zotero) 到知识内化 (ChiKen) 的关键一步,不仅仅是收藏,更是为了最终的'知见'。
四、未来的规划与社区贡献
ChiKen 目前仍处于积极的开发阶段,还有许多可以改进和完善的地方。未来计划探索的方向包括:
- 优化文献解析:针对学术论文的结构特点,提供更精准的文本提取与分块。
- 扩展 MCP 工具集:允许外部 LLM 对知识库进行更复杂的操作。
- 架构升级:考虑迁移至 PyTauri 框架,以提升性能和跨平台体验。
我们是一个开放的社区项目,非常欢迎任何形式的贡献。无论您是发现了程序中的一个缺陷、对功能有新的想法,还是愿意帮助我们测试和提供反馈,都对项目至关重要。


