Dify 入门系列(六):从 Web 到 API交付与集成,打通 AI 落地的“最后一公里”

大家好,我是独孤风。

在上一篇教程中,我们已经在Dify的“工作室”里,用5分钟“组装”出了一个懂公司规范的 “📊 数据治理知识助手”。 但是,现在有一个尴尬的问题: 这个超酷的AI助手,目前还被锁在Dify的“工厂”里。 只有拥有Dify账号、能登录后台的人才能看见它。这就像造了一辆法拉利,却只能在自家车库里空转,不能开上路去接送客户。

AI工程化的核心,不仅在于“造出来”,更在于“用起来”。 今天,我们要进行Dify入门篇的关键一课:交付与集成 (Delivery & Integration)。 我们将拆掉Dify工厂的围墙,通过三种方式,把这个AI助手“分发”到真实的世界中去:

  1. Web App:生成公开链接,发给老板直接用。
  2. 嵌入 (Embed):把AI挂载到公司内网或博客上。
  3. API (后端即服务):这是架构师的最爱,让业务系统直接调用AI能力。

不需要写代码,不需要搭服务器,我们将见证Dify作为 LLMOps平台 最强大的 BaaS (Backend as a Service) 能力。

|本文档版权归大数据流动所有,作者独孤风。文末联系作者,加入AI工程化学习社群

第一种交付:Web App(最快!3秒上路)

这是最简单、最直接的交付方式。Dify自带了一个精美的、适配移动端的网页前端。

🎯 场景:

  • 开会时,发给老板演示效果。
  • 做成二维码,贴在会议室墙上,供员工查询“数据规范”。

🛠️ 操作步骤:

  1. 从工作室进入你的 “📊 数据治理知识助手” 应用概览页。
  1. 在左侧菜单栏找到 “设置按钮”。
  2. 找到 “公开访问 URL”,点击开关,将其变成 “已启用”。
  3. 复制那个链接,发到你的手机上,或者发给同事。也可以复制二维码

👀 见证时刻: 你会发现,无需登录Dify账号,同事点开链接就能直接和AI对话! 这个页面简洁、专业,而且自适应手机屏幕。你甚至可以在“设置”里上传公司的Logo,修改背景颜色,让它看起来就像是公司专门找外包开发的产品。

💡 笔记: 不要小看这个URL。它背后已经封装好了鉴权、流式传输、错误处理等全套Web服务。在没有Dify之前,为了这一个页面,你可能需要一个前端工程师写两天Vue/React代码。

第二种交付:嵌入网站(最无感!融入业务)

如果公司已经有了内部门户(Intranet)、Wiki(如Confluence)或者你个人的技术博客,你想把AI助手变成网页右下角的那个 “悬浮气泡”,该怎么办? Dify 提供了 “脚本嵌入” 能力,把AI变成一个插件。

🎯 场景:

  • 在公司“数据治理管理平台”网页右下角,挂载一个AI客服,随时解答填报问题。
  • 在个人博客上挂一个“数字分身”。

🛠️ 操作步骤:

  1. 在应用右侧菜单,点击 “发布”下的下拉按钮。
  1. 你会看到三种模式,嵌入网页,悬浮,浏览器插件,选择 “悬浮窗 (Floating Chatbot)”。
  2. 复制页面上显示的那段 <script> 代码。
  3. 打开你公司网站的 HTML 源码(或者 WordPress/Hexo 的配置页),把这段代码粘贴到 <body> 标签结束前。

👀 见证时刻: 刷新你的公司网站,右下角奇迹般地出现了一个蓝色气泡图标。点开它,你的 “数据治理知识助手” 就浮现在那里,和原有系统完美融合。

第三种交付:API集成(最硬核!无限可能)

前两种只是“穿衣服”,这一种才是真正的“换骨”。 作为大数据工程师,我们深知:真正的企业级应用,数据和逻辑必须是解耦的。 Dify 的核心定义是 BaaS (Backend as a Service)。它把复杂的 RAG、模型调用、Prompt工程全部封装成了一个标准的 RESTful API。

🎯 场景:

  • 企业机器人:员工在群里 @机器人 提问,机器人调用 Dify API 回答。
  • ERP系统集成:在数据录入界面,点击“自动校验”,后端调用 Dify API 检查数据质量。
  • 私有化前端:你嫌弃 Dify 自带的 UI 不好看,自己用 React 写个全新的界面,后台连 Dify。

🛠️ 操作步骤:

  1. 在应用左侧菜单,点击 “访问 API (API Access)”。
  2. 点击右上角 “API 密钥”,创建一个新密钥,复制保存(千万别泄露)。
  3. 打开右上角的 “API 文档”。Dify 自动生成了针对当前应用的专属文档。
  4. 找到 POST /chat-messages 接口。

💻 极简测试(假装我们是后端开发): 打开你的终端(Terminal)或 Postman,输入以下命令(替换你的 api-key):

Bash

curl -X POST 'https://api.dify.ai/v1/chat-messages' \ --header 'Authorization: Bearer {YOUR_API_KEY}' \ --header 'Content-Type: application/json' \ --data-raw '{     "inputs": {},     "query": "什么是数据质量?",     "response_mode": "blocking",     "conversation_id": "",     "user": "dugufeng-test" }'

👀 见证时刻: 你会收到一段标准的 JSON 返回,里面有 DeepSeek 生成的回答 "数据质量是指..."。 拿到这个 JSON,你的 Java/Python 后端想怎么处理都行!

💡 安全警示: API Key 等同于你的账号密码。

千万不要把 API Key 直接写在前端 JavaScript 代码里(容易被浏览器F12抓包窃取)。

正确的做法:前端 -> 你的后端服务器(Node/Java/Go) -> Dify API。在你的后端服务器里中转请求,保护 Key 的安全。

总结:从“作坊”到“生态”

今天,我们没有修改Prompt,没有调整模型,但我们做了一件更重要事:连接。

通过 Web、嵌入、API 三种方式,我们将 Dify 这个“AI引擎”安装到了业务的“底盘”上:

  • Web App 解决了“快速演示”;
  • 嵌入 解决了“门户引流”;
  • API 解决了“深度业务集成”。

至此,我们的 Dify 入门篇 “基建四部曲”(部署、模型、知识库、应用交付)已全部完成。你已经具备了构建一个标准 RAG 问答机器人的全部能力。

但是,现实世界的业务往往比“一问一答”更复杂:

  • 如果我想让 AI 先去查一下 天气,再写周报?
  • 如果我想让 AI 把生成的 SQL 语句,先发给 Leader 审批,再执行?
  • 如果用户上传一张图片,我要先做 OCR 识别,再存入 Excel?

简单的“聊天助手”已经不够用了。 我们需要更强大的逻辑编排能力——工作流 (Workflow)。

📢 下期预告:Dify 进阶篇 —— 工作流 (Workflow)

下一篇,我们将告别简单的 Chatbot,进入 Dify 最迷人的“画布”模式。 我将带大家用“连线”的方式,来构建一个AI应用工作流,看 AI 如何处理复杂的多步逻辑。

一起折腾 Dify

如果你已经在用 Dify 做知识库、RAG 或者 Agent 应用,或者正准备学习AI工程化相关知识,肯定还会遇到一堆非常具体的工程问题。

我这边在搭一个「AI工程化学习群」,主要会做三件事:

  • 一起交流AI工程化的使用与运维经验。
  • 拆解多模态知识库、RAG 工作流在真实业务里的架构设计。
  • 不定期更新我在实际工作中沉淀的工作流模板和踩坑记录,方便大家直接拿去改。

当然Dify只是开始。过去,我做了10年的数据工程化。未来,我准备再做10年的AI工程化!

加入大数据流动,和我们一起为未来10年埋下种子~

想进群的同学,可以在公众号「大数据流动」后台回复【dify】两个字,自动获取进群方式。

也欢迎在评论区简单介绍一下你现在用 Dify 做什么场景,我会优先拉一些典型案例进群,一起对着实际业务做优化。

我是独孤风,我们下期见。

👇 戳左下角「阅读原文」,访问我们的开源仓库点个小星星吧 ⭐️

Read more

无需任何拓展Copilot接入第三方OpenAI接口教程

禁止搬运,转载需标明本文链接 省流:修改"C:\Users\你的用户名称\.vscode\extensions\github.copilot-chat-0.35.0\package.json"中的"when": "productQualityType != 'stable'"为"when": "productQualityType == 'stable'",即可在copilot添加支持openAI的第三方接口 我在寻找怎么让copilot接入第三方接口的时候,通过别人的贴子(长期有效)接入第三方 OpenAI 兼容模型到 GitHub Copilot-ZEEKLOG博客发现了官方的讨论Add custom OpenAI endpoint configuration

新手如何用AI写小说?全流程教学+3款好用的AI写作软件推荐(附提示词)

新手如何用AI写小说?全流程教学+3款好用的AI写作软件推荐(附提示词)

最近后台私信都要爆了,好多粉丝朋友问我:“大大,我也想做自媒体写网文,但每次对着空白文档就想把键盘吃了怎么办?”、“大纲写得跟流水账一样,还没写到第十章就崩了……” 作为一个在码字圈摸爬滚打多年,掉过无数坑、也熬过无数通宵的写小说的老兵,我太懂这种“甚至不知道第一句话该写什么”的崩溃感了。 这两年为了找顺手的工具,我当真是神农尝百草,把市面上主流的ai写小说工具试了个遍。接下来我会教大家怎么用通用大模型进行一些写作前的准备(包括提示词),准备工作充足后再开始用AI写作工具填充内容。 一、写作前的准备工作 1、确定小说类型与主题 在开始创作前,先明确小说的基本方向: * 赛道选择: 明确核心流派(如赛博朋克、修真、本格推理等)与细分领域。 * 内核设定: 提炼作品的中心思想与核心价值观(Theme)。 * 受众锚定: 清晰画像目标读者群体。 * 竞品调研: 分析市场风向,寻找题材蓝海。 提示词: 请扮演一位资深网文编辑,分析当前玄幻小说市场的热门趋势。请提供 5个具有爆款潜力的创新主题。对于每个主题,请包含以下内容: 核心概念: 一句话概括故事内核。 世界观

彻底解决 Codex / Copilot 修改中文乱码【含自动化解决方案】

彻底解决 Codex / Copilot 修改中文乱码【含自动化解决方案】

引言 在使用 GitHub Copilot 或 OpenAI Codex 自动重构代码时,你是否遇到过这样的尴尬:AI 生成的代码逻辑完美,但原本注释里的中文却变成了 我爱中文 这样的乱码?有时候这种字符甚至会污染正确的代码,带来巨大的稳定性隐患。 一、 问题核心:被忽视的“终端中转” 乱码的根源不在于 AI 的大脑,也不在于编辑器的显示,而在于执行链路的编码不一致。 Copilot/Codex 在执行某些修改任务(如:重构整个文件或批量替换)时,往往会通过终端调用系统指令。由于 Windows 终端(PowerShell/CMD)默认使用 GBK 编码,它在处理 AI 传来的 UTF-8 字节时会发生“误读”,导致写入文件的内容从源头上就损坏了。

LLaMA-Factory配置文件详解:YAML参数调优指南

LLaMA-Factory配置文件详解:YAML参数调优指南 你是否还在为LLM微调时的参数配置感到困惑?是否因参数设置不当导致训练效率低下或模型效果不佳?本文将系统解析LLaMA-Factory的YAML配置文件结构,通过实际案例演示关键参数调优方法,帮助你在10分钟内掌握高效微调的配置技巧。读完本文后,你将能够独立编写优化的配置文件,解决90%的常见微调参数问题。 配置文件基础结构 LLaMA-Factory采用模块化的YAML配置系统,将微调任务划分为5个核心配置区块。这种结构设计使参数管理更清晰,也便于不同任务间的配置复用。典型的配置文件结构如下: ### model # 模型基础配置 ### method # 微调方法配置 ### dataset # 数据集处理配置 ### output # 训练输出配置 ### train # 训练过程配置 ### eval # 评估相关配置(可选) 项目中提供了大量配置示例,覆盖从基础SFT到高级RLHF的各类任务。例如: * LoRA微调示例:examples/train_lora/llama3_lora_sft.ya