Dify 入门系列(六):从 Web 到 API交付与集成,打通 AI 落地的“最后一公里”

大家好,我是独孤风。

在上一篇教程中,我们已经在Dify的“工作室”里,用5分钟“组装”出了一个懂公司规范的 “📊 数据治理知识助手”。 但是,现在有一个尴尬的问题: 这个超酷的AI助手,目前还被锁在Dify的“工厂”里。 只有拥有Dify账号、能登录后台的人才能看见它。这就像造了一辆法拉利,却只能在自家车库里空转,不能开上路去接送客户。

AI工程化的核心,不仅在于“造出来”,更在于“用起来”。 今天,我们要进行Dify入门篇的关键一课:交付与集成 (Delivery & Integration)。 我们将拆掉Dify工厂的围墙,通过三种方式,把这个AI助手“分发”到真实的世界中去:

  1. Web App:生成公开链接,发给老板直接用。
  2. 嵌入 (Embed):把AI挂载到公司内网或博客上。
  3. API (后端即服务):这是架构师的最爱,让业务系统直接调用AI能力。

不需要写代码,不需要搭服务器,我们将见证Dify作为 LLMOps平台 最强大的 BaaS (Backend as a Service) 能力。

|本文档版权归大数据流动所有,作者独孤风。文末联系作者,加入AI工程化学习社群

第一种交付:Web App(最快!3秒上路)

这是最简单、最直接的交付方式。Dify自带了一个精美的、适配移动端的网页前端。

🎯 场景:

  • 开会时,发给老板演示效果。
  • 做成二维码,贴在会议室墙上,供员工查询“数据规范”。

🛠️ 操作步骤:

  1. 从工作室进入你的 “📊 数据治理知识助手” 应用概览页。
  1. 在左侧菜单栏找到 “设置按钮”。
  2. 找到 “公开访问 URL”,点击开关,将其变成 “已启用”。
  3. 复制那个链接,发到你的手机上,或者发给同事。也可以复制二维码

👀 见证时刻: 你会发现,无需登录Dify账号,同事点开链接就能直接和AI对话! 这个页面简洁、专业,而且自适应手机屏幕。你甚至可以在“设置”里上传公司的Logo,修改背景颜色,让它看起来就像是公司专门找外包开发的产品。

💡 笔记: 不要小看这个URL。它背后已经封装好了鉴权、流式传输、错误处理等全套Web服务。在没有Dify之前,为了这一个页面,你可能需要一个前端工程师写两天Vue/React代码。

第二种交付:嵌入网站(最无感!融入业务)

如果公司已经有了内部门户(Intranet)、Wiki(如Confluence)或者你个人的技术博客,你想把AI助手变成网页右下角的那个 “悬浮气泡”,该怎么办? Dify 提供了 “脚本嵌入” 能力,把AI变成一个插件。

🎯 场景:

  • 在公司“数据治理管理平台”网页右下角,挂载一个AI客服,随时解答填报问题。
  • 在个人博客上挂一个“数字分身”。

🛠️ 操作步骤:

  1. 在应用右侧菜单,点击 “发布”下的下拉按钮。
  1. 你会看到三种模式,嵌入网页,悬浮,浏览器插件,选择 “悬浮窗 (Floating Chatbot)”。
  2. 复制页面上显示的那段 <script> 代码。
  3. 打开你公司网站的 HTML 源码(或者 WordPress/Hexo 的配置页),把这段代码粘贴到 <body> 标签结束前。

👀 见证时刻: 刷新你的公司网站,右下角奇迹般地出现了一个蓝色气泡图标。点开它,你的 “数据治理知识助手” 就浮现在那里,和原有系统完美融合。

第三种交付:API集成(最硬核!无限可能)

前两种只是“穿衣服”,这一种才是真正的“换骨”。 作为大数据工程师,我们深知:真正的企业级应用,数据和逻辑必须是解耦的。 Dify 的核心定义是 BaaS (Backend as a Service)。它把复杂的 RAG、模型调用、Prompt工程全部封装成了一个标准的 RESTful API。

🎯 场景:

  • 企业机器人:员工在群里 @机器人 提问,机器人调用 Dify API 回答。
  • ERP系统集成:在数据录入界面,点击“自动校验”,后端调用 Dify API 检查数据质量。
  • 私有化前端:你嫌弃 Dify 自带的 UI 不好看,自己用 React 写个全新的界面,后台连 Dify。

🛠️ 操作步骤:

  1. 在应用左侧菜单,点击 “访问 API (API Access)”。
  2. 点击右上角 “API 密钥”,创建一个新密钥,复制保存(千万别泄露)。
  3. 打开右上角的 “API 文档”。Dify 自动生成了针对当前应用的专属文档。
  4. 找到 POST /chat-messages 接口。

💻 极简测试(假装我们是后端开发): 打开你的终端(Terminal)或 Postman,输入以下命令(替换你的 api-key):

Bash

curl -X POST 'https://api.dify.ai/v1/chat-messages' \ --header 'Authorization: Bearer {YOUR_API_KEY}' \ --header 'Content-Type: application/json' \ --data-raw '{     "inputs": {},     "query": "什么是数据质量?",     "response_mode": "blocking",     "conversation_id": "",     "user": "dugufeng-test" }'

👀 见证时刻: 你会收到一段标准的 JSON 返回,里面有 DeepSeek 生成的回答 "数据质量是指..."。 拿到这个 JSON,你的 Java/Python 后端想怎么处理都行!

💡 安全警示: API Key 等同于你的账号密码。

千万不要把 API Key 直接写在前端 JavaScript 代码里(容易被浏览器F12抓包窃取)。

正确的做法:前端 -> 你的后端服务器(Node/Java/Go) -> Dify API。在你的后端服务器里中转请求,保护 Key 的安全。

总结:从“作坊”到“生态”

今天,我们没有修改Prompt,没有调整模型,但我们做了一件更重要事:连接。

通过 Web、嵌入、API 三种方式,我们将 Dify 这个“AI引擎”安装到了业务的“底盘”上:

  • Web App 解决了“快速演示”;
  • 嵌入 解决了“门户引流”;
  • API 解决了“深度业务集成”。

至此,我们的 Dify 入门篇 “基建四部曲”(部署、模型、知识库、应用交付)已全部完成。你已经具备了构建一个标准 RAG 问答机器人的全部能力。

但是,现实世界的业务往往比“一问一答”更复杂:

  • 如果我想让 AI 先去查一下 天气,再写周报?
  • 如果我想让 AI 把生成的 SQL 语句,先发给 Leader 审批,再执行?
  • 如果用户上传一张图片,我要先做 OCR 识别,再存入 Excel?

简单的“聊天助手”已经不够用了。 我们需要更强大的逻辑编排能力——工作流 (Workflow)。

📢 下期预告:Dify 进阶篇 —— 工作流 (Workflow)

下一篇,我们将告别简单的 Chatbot,进入 Dify 最迷人的“画布”模式。 我将带大家用“连线”的方式,来构建一个AI应用工作流,看 AI 如何处理复杂的多步逻辑。

一起折腾 Dify

如果你已经在用 Dify 做知识库、RAG 或者 Agent 应用,或者正准备学习AI工程化相关知识,肯定还会遇到一堆非常具体的工程问题。

我这边在搭一个「AI工程化学习群」,主要会做三件事:

  • 一起交流AI工程化的使用与运维经验。
  • 拆解多模态知识库、RAG 工作流在真实业务里的架构设计。
  • 不定期更新我在实际工作中沉淀的工作流模板和踩坑记录,方便大家直接拿去改。

当然Dify只是开始。过去,我做了10年的数据工程化。未来,我准备再做10年的AI工程化!

加入大数据流动,和我们一起为未来10年埋下种子~

想进群的同学,可以在公众号「大数据流动」后台回复【dify】两个字,自动获取进群方式。

也欢迎在评论区简单介绍一下你现在用 Dify 做什么场景,我会优先拉一些典型案例进群,一起对着实际业务做优化。

我是独孤风,我们下期见。

👇 戳左下角「阅读原文」,访问我们的开源仓库点个小星星吧 ⭐️

Read more

AIGC视频生成成本优化实战:文字+图片输入下20秒与30秒视频的模型选型与价格对比

快速体验 在开始今天关于 AIGC视频生成成本优化实战:文字+图片输入下20秒与30秒视频的模型选型与价格对比 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 AIGC视频生成成本优化实战:文字+图片输入下20秒与30秒视频的模型选型与价格对比 背景痛点:被浪费的每一秒都在烧钱 最近在做一个短视频自动生成项目时,发现一个扎心现象:用AIGC生成的30秒视频,实际有效内容往往只有20秒左右。多出来的10秒黑屏或重复画面,不仅让用户观感下降,

Matlab Copilot_AI代码生成工具:基于DeepSeek-V3.1的Matlab AI编程实战(附多版本代码,不限于Matlab 2025a)

Matlab Copilot_AI代码生成工具:基于DeepSeek-V3.1的Matlab AI编程实战(附多版本代码,不限于Matlab 2025a)

🔥 为什么需要这款工具? * Matlab 2025a虽支持Copilot,但由于地区和许可证的限制,无法使用; * 在MATLAB和ChatGPT、DeepSeek等AI工具之间来回切换,无法所见即所得。 这款Matlab Copilot_AI工具基于 DeepSeek,直接在Matlab平台运行,无须切换其他软件,支持一键生成、运行、调试、修复、导出全流程,且使用成本低,让编程效率提升,并保持持续更新。 这款工具不限于Matlab 2025a运行Copilot,集成了: 1️⃣ AI生成代码: * 输入需求:在界面输入区输入自然语言指令; * 一键生成:点击“生成”按钮,调用DeepSeek大模型,即可输出含注释说明的完整代码; * 即用即得:生成的代码自动填充到代码区,无需手动调整格式,直接运行! 2️⃣ 报错自动修复: * 错误捕获:运行代码时,工具自动记录报错信息(含文件名、行号、具体错误描述); * 智能修复:点击“修复”

vscode-copilot-chat优化技巧:减少资源占用的方法

vscode-copilot-chat优化技巧:减少资源占用的方法 【免费下载链接】vscode-copilot-chatCopilot Chat extension for VS Code 项目地址: https://gitcode.com/gh_mirrors/vs/vscode-copilot-chat VSCode Copilot Chat作为AI辅助编程工具,在提升开发效率的同时,可能会占用较多系统资源。本文将从配置优化、会话管理和高级设置三个维度,介绍减少资源消耗的实用方法,帮助用户在保持功能体验的同时提升编辑器性能。 配置优化:基础设置调整 调整模型参数限制 通过修改配置文件中的模型参数,可以直接影响资源占用情况。在项目的package.json中,可配置自定义模型的最大输入输出令牌数,避免不必要的计算资源消耗。 "configuration": { "maxInputTokens": 2000, "maxOutputTokens": 1000 } 上述配置将输入令牌限制在2000,输出令牌限制在1000,适用于大多数日常开发场景。如需处理复杂任务,

2025终极指南:whisper.cpp跨平台语音识别部署全流程

2025终极指南:whisper.cpp跨平台语音识别部署全流程 【免费下载链接】whisper.cppOpenAI 的 Whisper 模型在 C/C++ 中的移植版本。 项目地址: https://gitcode.com/GitHub_Trending/wh/whisper.cpp 还在为语音转文字服务的网络延迟和高成本烦恼?whisper.cpp作为开源语音识别解决方案,提供了本地化部署的完美选择。本文将带你深入了解如何在不同平台上快速部署和使用这个强大的离线语音识别工具。 通过本文,你将掌握: * 多平台环境配置的一键安装方法 * 模型下载与优化的性能调优技巧 * 常见部署问题的快速解决方案 * 监控与维护的最佳实践 平台选择:找到最适合你的方案 平台类型安装难度推理速度内存占用适用场景Windows桌面⭐⭐1.2x1.1GB个人使用Linux服务器⭐⭐⭐1.5x0.9GB企业部署macOS开发⭐2.0x0.7GB移动应用Android设备⭐⭐⭐⭐0.8x0.5GB边缘计算 环境搭建:快速启动的完整步骤 基础环境准备