蓝耘MaaS驱动PandaWiki:零基础搭建AI智能知识库完整指南

蓝耘MaaS驱动PandaWiki:零基础搭建AI智能知识库完整指南
此教程使用的环境是:Ubuntu Server 22.04 LTS 64位 2核心4G内存的Linux服务器。
文章摘要:
本文详细介绍了如何使用蓝耘MaaS平台驱动PandaWiki搭建AI智能知识库系统的完整流程。PandaWiki是一款基于AI大模型的开源知识库系统,具备AI创作、AI问答、AI搜索等强大功能。
教程从零开始,首先指导用户注册蓝耘MaaS平台并获取API密钥和模型名称,然后通过一键脚本在Ubuntu Server 22.04环境下快速部署PandaWiki。重点介绍了如何配置蓝耘MaaS平台的DeepSeek-v3.1-Terminus模型,实现高性价比的AI能力支持。
文章通过实战演示,展示了将ZEEKLOG博客批量导入知识库的完整过程,包括Markdown文件上传、数据拉取、批量发布等操作步骤。最终测试验证了AI问答功能的实际效果,系统能够准确理解用户问题并从知识库中检索相关内容提供智能回答。
整个部署过程简单高效,适合企业和个人快速构建智能化的文档管理和知识问答系统,为用户提供了一个低成本、高性能的AI知识库解决方案。

文章目录

前言

PandaWiki 是一款基于 AI 大模型的开源知识库搭建系统,能够帮助用户快速构建智能化的产品文档、技术文档、FAQ 和博客系统。通过集成大模型能力,它提供了 AI 创作、AI 问答、AI 搜索等强大功能。

在选择 AI 模型服务时,我们通常关注两个核心指标:响应速度成本控制。本文将详细介绍如何使用蓝耘MaaS平台为 PandaWiki 提供高性价比的 AI 能力支持。

蓝耘MaaS平台的优势显而易见:

新用户可获得大量免费 Tokens ,响应速度快,支持多种主流大模型

蓝耘免费额度展示

第一步:注册蓝耘MaaS平台

1.1 访问注册页面

点击访问 蓝耘MaaS平台 进行注册。

蓝耘注册页面

第二步:获取API密钥

2.1 创建API密钥

  1. 切换到MaaS平台页面
  2. 在左侧菜单栏找到「API KEY管理」
  3. 点击「创建API KEY」按钮
  4. 系统将自动生成唯一的API密钥
  5. 重要:请妥善保存此密钥,它是调用AI服务的身份凭证
创建API KEY

第三步:获取模型名称

DeepSeek-v3.1-Terminus 模型为例,其完整的模型名称为:

/maas/deepseek-ai/DeepSeek-V3.1-Terminus 
模型名称获取

第四步:安装PandaWiki

4.1 执行安装命令

使用root权限执行以下一键安装命令:

bash-c"$(curl-fsSLk https://release.baizhi.cloud/panda-wiki/manager.sh)"

4.2 Docker环境检查

如果系统未安装Docker,安装脚本会提示是否需要安装:

Docker安装提示

4.3 选择安装目录

系统会询问PandaWiki的安装目录,默认路径即可(直接回车):

选择安装目录

4.4 等待安装完成

耐心等待Docker镜像构建完成:

镜像构建过程

4.5 获取访问信息

安装完成后,系统会显示:

  • 访问地址
  • 默认账号密码
  • 注意:记得在防火墙或安全组中开放相应端口
安装完成信息

第五步:配置PandaWiki

5.1 登录系统

使用浏览器访问提供的地址,输入默认账号密码登录:

登录页面

5.2 配置AI模型

PandaWiki需要配置智能对话模型来提供AI功能:

模型配置需求
配置蓝耘模型

在模型配置页面填入:

  • API密钥:之前获取的蓝耘API Key
  • 模型名称:完整的模型路径
  • API地址https://maas-api.lanyun.net/v1蓝耘MaaS平台的API端点
保存配置

第六步:创建知识库

6.1 创建新知识库

为您的知识库起一个有意义的名称,然后点击创建:

创建知识库

6.2 导入文档内容

进入后台管理界面,点击「创建文档」:

创建文档

PandaWiki支持多种导入方式:

导入方式选择

实战演示:将ZEEKLOG博客导入到PandaWiki知识库中

6.1 准备数据

本例演示如何将ZEEKLOG博客文章批量导入PandaWiki。首先将所有文章导出为Markdown格式:

导出的Markdown文件

6.2 批量导入

将所有Markdown文件上传,然后点击「拉取数据」:

批量导入文件

6.3 确认导入

系统显示导入成功后,点击「更新发布」:

导入成功
更新发布

6.4 全选发布

选择所有文档,点击确认发布:

全选发布

第七步:体验智能问答

7.1 访问知识库首页

发布完成后,访问知识库首页开始使用:

知识库首页

7.2 测试AI问答功能

尝试提问相关问题,系统能够准确的理解问题意图,从知识库中检索相关内容,提供智能化的回答,甚至能够识别和展示相关图片

AI问答效果1
AI问答效果2

总结

通过本文的详细指导,我们已经成功搭建了一个功能完整的智能知识库系统。

PandaWiki结合蓝耘MaaS平台,为用户提供了一个高效、智能的知识库解决方案。通过简单的配置和部署,即可快速搭建功能完整的AI驱动知识库系统,满足企业和个人的文档管理需求。

Read more

主流 AI 插件 之一的 Copilot 介绍

主流 AI 插件 之一的 Copilot 介绍

Copilot 是微软推出的一款人工智能助手,旨在通过自然语言交互帮助您提升工作效率和创造力,覆盖多平台(网页端、桌面端、移动端、Edge 浏览器等),提供智能问答、内容生成、代码辅助等功能。其核心定位为“日常 AI 伴侣”,旨在通过自然语言交互提升工作与生活效率。         ⚠️ 注意:自 2024 年起,Copilot 已从独立插件全面整合进 GitHub Enterprise 与 Microsoft 365 开发者计划,部分高级功能(如多文件协同编辑、Agent 模式)需订阅 Copilot Pro 或企业版。 一、Copilot 官网与介绍 1.1 Microsoft Copilot • 定位:微软旗下AI助手,适用于工作与生活,支持多场景应用。 • 功能:文本生成、

动态加载逻辑:VSCode Copilot 魔改接入智谱 GLM-4.6,支持任意大模型切换

VSCode Copilot 魔改接入智谱 GLM-4.6 的实现方法 环境准备 确保已安装最新版 VSCode 和 Node.js(建议版本 ≥ 16)。 克隆 Copilot 官方插件源码仓库或通过 vsce 工具解压已安装的 Copilot 插件包。 修改插件配置 编辑 package.json 文件,在 contributes 部分新增 GLM-4.6 的 API 端点配置。 替换默认的 Copilot 服务地址为智谱开放平台的 API 地址:https://open.bigmodel.cn/api/paas/v3/model-api/chatglm_pro/invoke

使用 VS Code 与 GitHub Copilot 高效 Vibe Coding 指南

欢迎大家关注「几米宋」的微信公众号,公众号聚焦于云原生、AI、服务网格、工具教程、技术观察以及日常感悟等内容,更多精彩内容请访问个人网站 jimmysong.io。 📄 文章摘要 掌握 VS Code 与 GitHub Copilot 的高效开发技巧,提升你的编程体验与效率,开启愉快的 vibe coding 之旅。 🔗 在 jimmysong.io 上 阅读原文 体验更佳。 最近一段时间笔者试用了众多的 vibe coding(氛围编程)工具,但是试用了一圈后,最终还是选择了 VS Code 与 GitHub Copilot 的组合。不为别的,就是因为最得心应手、性价比最高、最有可扩展性。本文将从环境配置、工作空间和插件、界面布局、

VSCode GitHub Copilot 安装与使用完全指南

VSCode GitHub Copilot 安装与使用完全指南

文章目录 * 一、安装准备 * 1.1 系统要求 * 1.2 Copilot订阅选择 * 1.3 获取访问权限 * 二、安装步骤 * 2.1 安装GitHub Copilot基础扩展 * 2.2 安装GitHub Copilot Chat扩展 * 2.3 登录和授权 * 三、基本使用:代码自动完成 * 3.1 内联代码建议 * 3.2 自定义Copilot配置 * 3.3 使用注释引导Copilot * 四、使用Copilot Chat * 4.1 启动聊天会话 * 4.2 常见Chat命令和技巧 * 4.3 聊天模式