华为云Flexus+DeepSeek征文|打造一款智能问数 AI Agent 的完整实践指南

华为云Flexus+DeepSeek征文|打造一款智能问数 AI Agent 的完整实践指南

目录

在大模型加速普及的今天,如何低门槛地搭建自己的 AI Agent 并将其应用到实际业务场景中,是很多开发者关心的话题。本次我将基于华为云提供的 DeepSeek-V3/R1 商用服务与 Dify LLM 应用开发平台,通过一键部署和自定义 Agent 开发,构建一款智能问数助手,并分享从平台开通、部署、开发到调优测试的全过程实践与思考。


一、项目背景与目标

“智能问数”是一个典型的数据驱动型 AI Agent 场景,它面向用户提问结构化数据中的信息(如销售、财务、运营等数据),并自动生成分析结果或报表答复。本项目旨在通过华为云大模型平台实现以下目标:

  • 快速构建一套可对接企业表格/知识库数据的 AI 问答系统;
  • 结合 DeepSeek-R1 模型实现更精准的多轮问答、自然语言理解;
  • 通过 Dify LLM 开发平台打造易于扩展的智能 Agent 架构;
  • 实现高并发响应测试,探索容器化高可用部署方案。

二、开通 DeepSeek-V3/R1 商用服务流程

华为云目前提供 DeepSeek 系列大模型服务,支持包括在线推理、Agent开发、Dify集成等多种能力。以下是详细的服务开通步骤:

1. 访问服务入口

在这里插入图片描述

前往 ModelArts Studio-MaaS 平台首页,进入“大模型即服务”模块。

2. 注册与登录账号

如尚无账号,先完成华为云注册,并实名认证。已有账号可直接登录控制台。

3. 进入在线推理模块

点击左侧导航栏“模型推理” → “在线推理”,进入模型调用入口。

在这里插入图片描述

4. 开通商用服务

选择 DeepSeek-V3 或 DeepSeek-R1 模型,并点击“商用服务”按钮进行开通。请务必确保账号余额 ≥10 元(避免部署过程中失败),充值链接如下:
华为云账号充值

在这里插入图片描述

三、一键部署 Dify LLM 应用开发平台

Dify 是一款低代码大模型应用开发平台,支持自定义工作流、知识库对接和 Agent 能力构建。部署方式如下:

1. 访问部署入口

打开官方部署教程页面:
快速搭建Dify平台

2. 使用“一键部署”功能

点击“一键部署”按钮,华为云将自动创建运行所需的容器资源及网络依赖,无需手动配置。整个过程仅需数分钟。

在这里插入图片描述

3. Flexus X 实例亮点介绍

Dify平台部署使用了华为云最新的 Flexus X实例,具备以下显著优势:

  • 性能提升 1.6 倍,大模型推理响应更快;
  • 关键业务应用最高加速 6 倍,特别适合 AI 推理类应用;
  • 综合降本约 30%,降低试验和部署成本;
  • 旗舰级可靠性保障,支持容器自动恢复与容错部署。

Flexus X 的引入,使 Dify 平台不仅部署更快,后续运行更加稳定、可控,是开发大模型 Agent 的理想选择。


四、一键部署Dify-LLM应用开发平台

点击“一键部署(知识库搜索增强版)”选项

在这里插入图片描述


这里点击下一步就行

在这里插入图片描述


设置一下密码,注意需要满足后面的要求

然后直接点击部署就行

在这里插入图片描述

等待几分钟,可看到我们的资源栈部署完成

在这里插入图片描述

访问输出中的地址即可进入Dify-LLM应用开发平台

在这里插入图片描述

首次登录需要设置邮箱、用户名和密码

在这里插入图片描述

部署可参考:一键部署Dify-LLM应用开发平台


五、开发智能问数 AI Agent 实践

基于 Dify 平台与 DeepSeek-V3 模型,我开发了一款面向表格数据的“智能问数”助手,实现用户通过自然语言提问,系统自动解析意图并给出数据结果或分析。

1.与MaaS服务对接

在ModelArts Studio左侧导航栏中,选择“在线推理”,开通服务并点击调用说明

在这里插入图片描述

然后接口类型选择“OpenAI SDK”获取API地址和模型名称。

在这里插入图片描述


另外点击下面的API key管理,创建key并保存,后面我们需要用到

在这里插入图片描述

2.完整模型供应商设置

在Dify平台界面,点击右上角用户名称,下拉并单击“设置”。

在这里插入图片描述


输入上面我们获取到的“模型名称”、“API endpoint URL”和"API Key"

在这里插入图片描述

3. Agent 创建流程

在 Dify 控制台中点击“创建应用”,选择“chatflow”

  • 调用模型:设置为 DeepSeek-V3,启用多轮上下文模式
  • 输出模块:直接输出模型回复文本
在这里插入图片描述

点击预览进行测试

在这里插入图片描述

结合上下文,Agent 表现出良好的语义理解和数据分析能力,测试完成之后可以点击发布。


温馨提示,用完记得删除一下 资源栈

在这里插入图片描述

不然像我一样放几个小时就欠费了

在这里插入图片描述

总结与展望

通过本次实践,我完整体验了从华为云大模型平台服务开通、Dify平台部署,到 AI Agent 开发与优化的全过程。DeepSeek 模型强大的语义理解能力、Dify 平台的低代码特性,再结合 Flexus X 实例的高性能与可用性,为企业构建个性化 AI 应用提供了完整解决方案。

未来展望:

  • 接入更多数据源,如数据库/API,拓展问数范围;
  • 结合图表组件,生成可视化分析报告;
  • 对接企业微信或钉钉,集成到日常办公工具中。

828 B2B企业节已经开幕,汇聚千余款华为云旗下热门数智产品,更带来满额赠、专属礼包、储值返券等重磅权益玩法,是中小企业和开发者上云的好时机,建议密切关注官方渠道,及时获取最新活动信息,采购最实惠的云产品和最新的大模型服务!

Read more

Vitis使用教程:从零实现AI模型FPGA部署

从零开始:用Vitis把AI模型部署到FPGA上,我走过的每一步都算数 最近在做边缘AI推理项目时,被一个现实问题卡住了:GPU功耗太高,端侧跑不动;云端延迟又太大,实时性扛不住。于是我把目光转向了FPGA——这块曾经“难啃”的硬件,如今在 Vitis 的加持下,竟然也能像写软件一样开发AI加速器。 今天我想和你分享的,不是一篇冷冰冰的技术文档,而是一次真实的、手把手带你从模型训练到板级验证的全过程实战记录。如果你也想让自己的PyTorch模型在KV260开发板上跑出上千FPS,同时保持极低功耗,那这篇文值得你完整读一遍。 为什么是FPGA?为什么是Vitis? 先说结论: FPGA + Vitis AI = 边缘智能场景下的“黄金组合” 传统印象里,FPGA开发等于Verilog、时序约束、逻辑综合……门槛高得吓人。但Xilinx(现AMD)推出的 Vitis统一平台 彻底改变了这一点。它允许我们用C/C++甚至Python来描述算法,再通过 高层次综合(HLS) 自动生成硬件电路。 更关键的是,

Flutter 三方库 shelf_modular 的鸿蒙化适配指南 - 掌控服务器路由资产、精密模块治理实战、鸿蒙级服务端专家

Flutter 三方库 shelf_modular 的鸿蒙化适配指南 - 掌控服务器路由资产、精密模块治理实战、鸿蒙级服务端专家

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 shelf_modular 的鸿蒙化适配指南 - 掌控服务器路由资产、精密模块治理实战、鸿蒙级服务端专家 在鸿蒙跨平台应用执行高级服务端管理与多维 Shelf 路由资产指控(如构建一个支持全场景秒级交互的鸿蒙大型全量后端服务中枢、处理海量 API Route Payloads 的语义认领或是实现一个具备极致指控能力的资产管理后台路由审计中心)时,如果仅仅依赖官方的基础 Shelf 处理器或者是极其繁琐的手动路由映射,极易在处理“由于模块嵌套导致的资产认领偏移”、“高频服务请求下的认领假死”或“由于多语言环境导致的符号解析冲突死结”时陷入研发代码服务端逻辑崩溃死循环。如果你追求的是一种完全对齐现代模块化标准、支持全量高度可定制路由(Modular-driven Backend)且具备极致指控确定性的方案。今天我们要深度解析的 shelf_modular——一个专注于解决“服务端资产标准化认领与模块化解耦”痛点的顶级工具库,正是帮你打造“鸿蒙超

DeOldify多格式支持详解:JPG/PNG/BMP/WEBP/TIFF兼容性与性能对比

DeOldify多格式支持详解:JPG/PNG/BMP/WEBP/TIFF兼容性与性能对比 1. 引言:为什么图片格式对AI上色很重要? 你有没有遇到过这种情况:找到一张珍贵的老照片,兴冲冲地拿去上色,结果系统提示“格式不支持”?或者上传一张图片,等了半天却得到一张模糊不清的结果? 这很可能就是图片格式在“作怪”。 今天我们就来深入聊聊DeOldify图像上色服务对各种图片格式的支持情况。你可能知道DeOldify能把黑白照片变彩色,但你可能不知道,选择不同的图片格式,会直接影响上色的速度、质量和最终效果。 简单来说,图片格式就像是照片的“包装盒”。有的包装盒又大又重(比如TIFF),能完美保护里面的“宝贝”(图片细节);有的包装盒小巧轻便(比如JPG),方便携带但可能会压坏一点边角。DeOldify这个“上色师傅”需要打开这些包装盒才能工作,不同的包装方式自然会影响它的工作效率。 在这篇文章里,我会用最直白的方式告诉你: * DeOldify到底支持哪些图片格式? * 不同格式上色速度差多少? * 哪种格式的上色效果最好? * 实际使用时该怎么选? 无论你是

Qwen1.5-1.8B-GPTQ-Int4效果展示:Chainlit前端支持思维导图(MindMap)自动生成演示

Qwen1.5-1.8B-GPTQ-Int4效果展示:Chainlit前端支持思维导图(MindMap)自动生成演示 1. 模型效果惊艳展示 今天要给大家展示的是一个让人眼前一亮的AI应用——基于Qwen1.5-1.8B-GPTQ-Int4模型的思维导图自动生成系统。这个系统不仅能理解你的需求,还能自动生成结构清晰的思维导图,让知识整理变得轻松简单。 想象一下这样的场景:你需要快速整理一个复杂项目的思路,或者梳理某个知识点的框架。传统方法需要手动绘制思维导图,费时费力。而现在,只需要输入几个关键词,AI就能帮你生成完整的思维导图结构,大大提升了工作效率。 在实际测试中,这个模型展现出了令人惊喜的效果。无论是技术主题、学习计划还是创意构思,它都能快速生成逻辑清晰、层次分明的思维导图框架。生成的内容不仅结构合理,还能根据主题自动扩展相关子节点,真正做到了智能化的知识整理。 2. 核心功能效果演示 2.1 文本生成质量展示 让我们先来看看模型在文本生成方面的表现。在实际测试中,输入"人工智能发展历程"这个主题,模型生成的思维导图框架如下: 人工智能发展历程 ├── 早期发