华为云Flexus+DeepSeek征文|打造一款智能问数 AI Agent 的完整实践指南

华为云Flexus+DeepSeek征文|打造一款智能问数 AI Agent 的完整实践指南

目录

在大模型加速普及的今天,如何低门槛地搭建自己的 AI Agent 并将其应用到实际业务场景中,是很多开发者关心的话题。本次我将基于华为云提供的 DeepSeek-V3/R1 商用服务与 Dify LLM 应用开发平台,通过一键部署和自定义 Agent 开发,构建一款智能问数助手,并分享从平台开通、部署、开发到调优测试的全过程实践与思考。


一、项目背景与目标

“智能问数”是一个典型的数据驱动型 AI Agent 场景,它面向用户提问结构化数据中的信息(如销售、财务、运营等数据),并自动生成分析结果或报表答复。本项目旨在通过华为云大模型平台实现以下目标:

  • 快速构建一套可对接企业表格/知识库数据的 AI 问答系统;
  • 结合 DeepSeek-R1 模型实现更精准的多轮问答、自然语言理解;
  • 通过 Dify LLM 开发平台打造易于扩展的智能 Agent 架构;
  • 实现高并发响应测试,探索容器化高可用部署方案。

二、开通 DeepSeek-V3/R1 商用服务流程

华为云目前提供 DeepSeek 系列大模型服务,支持包括在线推理、Agent开发、Dify集成等多种能力。以下是详细的服务开通步骤:

1. 访问服务入口

在这里插入图片描述

前往 ModelArts Studio-MaaS 平台首页,进入“大模型即服务”模块。

2. 注册与登录账号

如尚无账号,先完成华为云注册,并实名认证。已有账号可直接登录控制台。

3. 进入在线推理模块

点击左侧导航栏“模型推理” → “在线推理”,进入模型调用入口。

在这里插入图片描述

4. 开通商用服务

选择 DeepSeek-V3 或 DeepSeek-R1 模型,并点击“商用服务”按钮进行开通。请务必确保账号余额 ≥10 元(避免部署过程中失败),充值链接如下:
华为云账号充值

在这里插入图片描述

三、一键部署 Dify LLM 应用开发平台

Dify 是一款低代码大模型应用开发平台,支持自定义工作流、知识库对接和 Agent 能力构建。部署方式如下:

1. 访问部署入口

打开官方部署教程页面:
快速搭建Dify平台

2. 使用“一键部署”功能

点击“一键部署”按钮,华为云将自动创建运行所需的容器资源及网络依赖,无需手动配置。整个过程仅需数分钟。

在这里插入图片描述

3. Flexus X 实例亮点介绍

Dify平台部署使用了华为云最新的 Flexus X实例,具备以下显著优势:

  • 性能提升 1.6 倍,大模型推理响应更快;
  • 关键业务应用最高加速 6 倍,特别适合 AI 推理类应用;
  • 综合降本约 30%,降低试验和部署成本;
  • 旗舰级可靠性保障,支持容器自动恢复与容错部署。

Flexus X 的引入,使 Dify 平台不仅部署更快,后续运行更加稳定、可控,是开发大模型 Agent 的理想选择。


四、一键部署Dify-LLM应用开发平台

点击“一键部署(知识库搜索增强版)”选项

在这里插入图片描述


这里点击下一步就行

在这里插入图片描述


设置一下密码,注意需要满足后面的要求

然后直接点击部署就行

在这里插入图片描述

等待几分钟,可看到我们的资源栈部署完成

在这里插入图片描述

访问输出中的地址即可进入Dify-LLM应用开发平台

在这里插入图片描述

首次登录需要设置邮箱、用户名和密码

在这里插入图片描述

部署可参考:一键部署Dify-LLM应用开发平台


五、开发智能问数 AI Agent 实践

基于 Dify 平台与 DeepSeek-V3 模型,我开发了一款面向表格数据的“智能问数”助手,实现用户通过自然语言提问,系统自动解析意图并给出数据结果或分析。

1.与MaaS服务对接

在ModelArts Studio左侧导航栏中,选择“在线推理”,开通服务并点击调用说明

在这里插入图片描述

然后接口类型选择“OpenAI SDK”获取API地址和模型名称。

在这里插入图片描述


另外点击下面的API key管理,创建key并保存,后面我们需要用到

在这里插入图片描述

2.完整模型供应商设置

在Dify平台界面,点击右上角用户名称,下拉并单击“设置”。

在这里插入图片描述


输入上面我们获取到的“模型名称”、“API endpoint URL”和"API Key"

在这里插入图片描述

3. Agent 创建流程

在 Dify 控制台中点击“创建应用”,选择“chatflow”

  • 调用模型:设置为 DeepSeek-V3,启用多轮上下文模式
  • 输出模块:直接输出模型回复文本
在这里插入图片描述

点击预览进行测试

在这里插入图片描述

结合上下文,Agent 表现出良好的语义理解和数据分析能力,测试完成之后可以点击发布。


温馨提示,用完记得删除一下 资源栈

在这里插入图片描述

不然像我一样放几个小时就欠费了

在这里插入图片描述

总结与展望

通过本次实践,我完整体验了从华为云大模型平台服务开通、Dify平台部署,到 AI Agent 开发与优化的全过程。DeepSeek 模型强大的语义理解能力、Dify 平台的低代码特性,再结合 Flexus X 实例的高性能与可用性,为企业构建个性化 AI 应用提供了完整解决方案。

未来展望:

  • 接入更多数据源,如数据库/API,拓展问数范围;
  • 结合图表组件,生成可视化分析报告;
  • 对接企业微信或钉钉,集成到日常办公工具中。

828 B2B企业节已经开幕,汇聚千余款华为云旗下热门数智产品,更带来满额赠、专属礼包、储值返券等重磅权益玩法,是中小企业和开发者上云的好时机,建议密切关注官方渠道,及时获取最新活动信息,采购最实惠的云产品和最新的大模型服务!

Read more

DeepSeek-R1-Distill-Llama-8B部署教程:Docker Compose编排多模型推理服务

DeepSeek-R1-Distill-Llama-8B部署教程:Docker Compose编排多模型推理服务 你是不是也遇到过这样的问题:想快速试用一个新模型,却卡在环境配置上?装依赖、配CUDA、调参数……半天过去,连第一句“你好”都没跑出来。今天这篇教程,就带你绕过所有坑,用最轻量的方式——Docker Compose,把 DeepSeek-R1-Distill-Llama-8B 这个实力派小钢炮模型稳稳跑起来。它不是玩具模型,而是在AIME数学竞赛、MATH-500、CodeForces等硬核榜单上真实打榜的蒸馏成果,8B参数却跑出接近70B级的推理表现。更重要的是,整个过程不需要你装Python环境、不碰CUDA驱动、不改一行源码,一条命令启动,开箱即用。 我们不讲抽象概念,只聚焦三件事:怎么让模型跑起来、怎么让它听懂你的话、怎么把它变成你手边随时能调用的服务。无论你是刚接触大模型的开发者,还是想快速验证想法的产品同学,只要你会用终端,就能照着做,10分钟内看到结果。 1. 为什么选 DeepSeek-R1-Distill-Llama-8B? 1.1 它不是“又一

Qwen3-VL + LLama-Factory进行针对Grounding任务LoRA微调

Qwen3-VL + LLama-Factory进行针对Grounding任务LoRA微调

0.官方GitHub网站: GitHub - QwenLM/Qwen3-VL:Qwen3-VL 是由阿里云 Qwen 团队开发的多模态大语言模型系列。https://github.com/QwenLM/Qwen3-VL 空间感知能力大幅提升:2D grounding 从绝对坐标变为相对坐标,支持判断物体方位、视角变化、遮挡关系,能实现 3D grounding,为复杂场景下的空间推理和具身场景打下基础。 OCR 支持更多语言及复杂场景:支持的中英外的语言从 10 种扩展到 32 种,覆盖更多国家和地区;在复杂光线、模糊、倾斜等实拍挑战性场景下表现更稳定;对生僻字、古籍字、专业术语的识别准确率也显著提升;超长文档理解和精细结构还原能力进一步提升。 一是采用 MRoPE-Interleave,原始MRoPE将特征维度按照时间(t)、高度(h)和宽度(w)的顺序分块划分,

在Android设备上利用Termux安装llama.cpp并启动webui

llama.cpp没有发布官方aarch64的二进制,需要自己编译,好在Termux已经有编译好的包可用。 按照文章在安卓手机上用vulkan加速推理LLM的方法, 1.在Termux中安装llama-cpp软件 ~ $ apt install llama-cpp Reading package lists... Done Building dependency tree... Done Reading state information... Done E: Unable to locate package llama-cpp ~ $ apt update Get:1 https://mirrors.tuna.tsinghua.edu.cn/termux/apt/termux-main stable InRelease [14.0 kB] Get:2 https://mirrors.

【AIGC面试面经第七期】旋转位置编码RoPE:从 2D 到 nD 的完美扩展之旅

【AIGC面试面经第七期】旋转位置编码RoPE:从 2D 到 nD 的完美扩展之旅

AIGC面试面经项目: https://github.com/WeThinkIn/AIGC-Interview-Book * 1. 正余弦位置编码也有外推、相对距离表达、远程衰减,为什么大模型都用RoPE? * 2. RoPE的base有什么作用、在控制什么? * 3. RoPE为何能从2维扩展到n维? * 4. Qwen中RoPE有GPT-J和GPT-NeoX两种实现,和理论不同,二者等价吗? * 5. 长度外推中传统位置编码的OOD问题是什么? * 6. 长度外推中RoPE的OOD问题是什么? * 7. RoPE是绝对位置编码,训练过程中到底在训练什么? * 8. 如何免训练外推RoPE?少量长文本训练如何强化外推? * 9. 从几何+傅里叶角度,n维RoPE整体在做什么、代表什么? * 10. RoPE高低频旋转圈数差异,和训练过程如何联系? 1. 正余弦位置编码也有外推、相对距离表达、远程衰减,为什么大模型都用RoPE? 原生sinusoidal正余弦位置编码公式为: { P E p o s , 2