Open Notebook 与本地 AI:离线环境下使用开源模型
为什么选择本地 AI 模式?
传统的 AI 笔记工具依赖云端服务,存在网络依赖、数据隐私和使用成本三大痛点。open-notebook 通过本地 AI 模型集成,提供了更优的解决方案:
| 对比维度 | 云端 AI 服务 | open-notebook 本地 AI |
|---|
介绍如何在无网络环境下搭建基于 open-notebook 和本地 AI 模型的笔记系统。通过集成 Ollama 管理开源模型,实现数据隐私保护、离线问答及内容分析。涵盖硬件要求、安装配置、场景应用及故障排除,提供低成本替代云端 API 的解决方案。
传统的 AI 笔记工具依赖云端服务,存在网络依赖、数据隐私和使用成本三大痛点。open-notebook 通过本地 AI 模型集成,提供了更优的解决方案:
| 对比维度 | 云端 AI 服务 | open-notebook 本地 AI |
|---|
| 网络依赖 | 必须联网 | 完全离线运行 |
| 数据隐私 | 数据上传至第三方 | 所有数据本地存储 |
| 使用成本 | 按 API 调用收费 | 一次性硬件投入,终身免费 |
| 模型选择 | 服务商限定模型 | 支持任意开源模型 |
| 延迟问题 | 受网络状况影响 | 毫秒级响应速度 |
本地 AI 运行需要一定的硬件支持,根据你的需求选择配置:
最低配置(勉强可用):
推荐配置(流畅体验):
实现本地 AI 功能需要两个关键组件:
Ollama 是目前最简单的本地 AI 模型管理工具,支持 Windows、macOS 和 Linux 系统。
Linux/macOS 用户:打开终端,执行以下命令:
curl -fsSL https://ollama.ai/install.sh | sh
Windows 用户:从 Ollama 官网下载安装程序并运行
安装完成后,Ollama 服务会自动启动,默认在本地 11434 端口运行。
Ollama 支持多种开源模型,根据你的硬件条件选择:
推荐模型(按硬件需求排序):
| 模型名称 | 参数规模 | 硬件要求 | 适用场景 |
|---|---|---|---|
| phi4 | 14B | 8GB RAM | 快速响应,基础任务 |
| qwen3 | 7B | 8GB RAM | 平衡性能与速度 |
| gemma3 | 7B | 8GB RAM | 谷歌模型,优质响应 |
| deepseek-r1 | 7B | 16GB RAM | 高级推理能力 |
| llama3 | 8B | 16GB RAM | 通用任务,全面性能 |
下载命令:打开终端,执行以下命令下载推荐模型:
# 基础模型组合(推荐 8GB 内存用户)
ollama pull qwen3
ollama pull mxbai-embed-large
# 高级推理模型(推荐 16GB 内存用户,可选)
ollama pull deepseek-r1
使用 Docker 安装(推荐新手):
# 创建项目目录
mkdir open-notebook && cd open-notebook
# 下载配置文件
curl -O https://raw.githubusercontent.com/lfnovo/open-notebook/main/docker-compose.yml
curl -O https://raw.githubusercontent.com/lfnovo/open-notebook/main/.env.example
# 重命名环境配置文件
mv .env.example docker.env
# 编辑环境文件,添加本地 AI 配置
echo "OLLAMA_API_BASE=http://localhost:11434" >> docker.env
# 启动服务
docker compose up -d
从源码安装(开发者选项):
# 克隆仓库
git clone https://github.com/lfnovo/open-notebook
cd open-notebook
# 配置环境变量
cp .env.example .env
echo "OLLAMA_API_BASE=http://localhost:11434" >> .env
# 安装依赖并启动
uv sync
make start-all
open-notebook 会为所有添加的文档建立本地知识库,即使没有网络:
利用本地 AI 进行内容创作,无需担心数据泄露:
如果你的设备配置有限,可以通过以下方式优化性能:
减少模型加载数量:
export OLLAMA_MAX_LOADED_MODELS=1
限制内存使用:
OLLAMA_MAX_VRAM=4GB ollama serve
对于高级用户,可以创建自定义模型配置以获得更好的性能:
cat > Modelfile << EOF
FROM qwen3
PARAMETER temperature 0.7
PARAMETER top_p 0.9
SYSTEM "你是一个专注于科研分析的助手,回答简洁专业。"
EOF
ollama create research-assistant -f Modelfile
当网络恢复后,系统会自动:
可能原因:端口冲突或资源不足
解决方法:
# 检查端口占用
lsof -i :11434
# 重启 Ollama 服务
sudo systemctl restart ollama
# 查看日志排查问题
journalctl -u ollama -f
可能原因:环境变量配置错误
解决方法:
echo $OLLAMA_API_BASE
# 应输出 http://localhost:11434
curl http://localhost:11434/api/tags
# 应返回已安装的模型列表
优化建议:
根据任务类型选择合适的模型:
ollama rm 模型名open-notebook 与本地 AI 模型的结合,彻底解决了网络依赖和数据隐私问题,为研究人员、学生和专业人士提供了一个安全、灵活的知识管理解决方案。无论是在没有网络的旅行途中,还是在安全要求严格的工作环境中,你都可以随时访问强大的 AI 辅助功能。
随着本地 AI 技术的不断进步,我们可以期待:
立即尝试搭建你的本地 AI 笔记系统,体验真正的数据自主掌控!

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML转Markdown 互为补充。 在线工具,Markdown转HTML在线工具,online