「源力觉醒 创作者计划」_百度开源文心 4.5 系列开源大模型:ERNIE-4.5-VL-28B-A3B-Paddle vs DeepSeek-R1 多维度测评分析
26 Mar 2026
— 12 min read
「源力觉醒 创作者计划」_百度开源文心 4.5 系列开源大模型:ERNIE-4.5-VL-28B-A3B-Paddle vs DeepSeek-R1 多维度测评分析
文章目录
背景 人工智能技术迅猛发展,大模型成为推动各行业智能化升级的核心引擎,百度开源的文心 4.5 系列大模型中的 ERNIE-4.5-VL-28B-A3B-Paddle,创新的技术架构与卓越的性能表现,多模态处理、知识理解等领域展现出强大潜力,本文将通过详细的部署实操、多维度性能对比,深度剖析 ERNIE-4.5-VL-28B-A3B-Paddle 在实际应用场景中的表现。 ERNIE-4.5-VL-28B-A3B-Paddle 模型介绍
关键字 值 模态 文本 & 视觉 训练阶段 后训练 参数量(总/激活) 28B / 3B 层数 28 头数(Q/KV) 20 / 4 文本专家(总/激活) 64 / 6 视觉专家(总/激活) 64 / 6 共享专家 2 上下文长度 131072
ERNIE-4.5-VL-28B-A3B 是一个多模态 MoE 聊天模型,总参数量为 28B,每个 Token 激活参数量为 3B,ERNIE 4.5 模型基于 MoE 的 A47B 和 A3B 系列,先进能力源于三大关键技术创新: ✅多模态异构 MoE 预训练,通过设计异构 MoE 结构、引入模态隔离路由等,联合训练文本和视觉模态,提升多模态任务性能 ✅规模效率化基础设施,提出异构混合并行和层次负载均衡策略用于训练,采用多专家并行协作等方法用于推理,基于 PaddlePaddle 实现高性能推理 ✅模态特定后训练,针对不同需求对预训练模型变体进行特定模态微调,在视觉语言模型微调阶段,聚焦核心能力优化数据构建和训练策略,并使用 RLVR 提升对齐和性能 ERNIE-4.5-VL-28B-A3B-Paddle 部署体验 1、PP飞浆AI Studio:模型库-搜索ERNIE-4.5-VL-28B-A3B-Paddle模型 2、快速开发 3、新增一个baidu名称的目录 4、删除清空实例代码 5、安装 aistudio-sdk 库以支持平台相关功能,接着使用 aistudio 命令行工具下载 “PaddlePaddle/ERNIE-4.5-VL-28B-A3B-Paddle” 模型到本地目录,最后通过 erniekit 工具基于 8K 序列长度配置文件对该模型进行监督微调训练 6、等待模型运行加载下载 7、下载运行成功 8、点击专业开发 9、点击左上角-终端-新建终端:输入如下命令进行框架安装通过指定镜像源安装支持 CUDA 12.6 的 PaddlePaddle 3.1.0 GPU 版本,从清华镜像源补充依赖并安装适配 GPU(支持 CUDA 8.6/8.9)的 FastDeploy 推理框架 10、PyCharm配置代码通过 OpenAI Python 库调用飞桨 AI Studio 平台的自定义 API 接口,配置自定义的 API 密钥和 base_url 指向飞桨的代理服务,然后创建一个聊天完成请求,使用默认模型以 0.6 的温度生成回复,并启用流式输出模式,代码在处理响应时会优先输出推理中间过程,否则输出最终回复内容,实现实时打印模型生成的文本 11、图片识别准备一张图片 代码配置 多轮对话 ERNIE-4.5-VL-28B-A3B-Paddle 对比 DeepSeek-R1
对比项目 ERNIE-4.5-VL-28B-A3B DeepSeek-R1 模型类型 多模态大模型 大型语言模型,主打推理功能 参数量 28B 6710 亿,另有 1.5B 至 70B 的蒸馏版本 训练框架 飞桨(PaddlePaddle) 未明确提及,但 DeepSeek 系列通常基于 Transformer 架构 训练方法 采用 “FlashMask 动态注意力遮蔽” 和 “异质多模态混合专家” 架构,实现多模态数据的协同优化 采用多阶段混合训练策略,包括监督微调冷启动和强化学习优化;使用 GRPO 算法替代传统的 PPO 算法 开源协议 Apache 2.0 licence,允许学术和商业使用 MIT 协议,开源模型权重、训练代码和数据处理工具链 性能表现 在 28 个基准测试中的 20 多个指标上超越了 DeepSeek-V3-671B-A37B-Base,达到 SOTA 水平 在 AIME 2024 上达到了 79.8% 的 Pass@1 分数,稍微超过 OpenAI-o1-1217;在 MATH-500 中取得了 97.3% 的分数,表现与 OpenAI-o1-1217 相当 擅长领域 跨模态的理解与生成能力强,能够无缝整合文本、图像、音频和视频内容 在数学、编程和推理等任务上表现出色
ERNIE-4.5-VL-28B-A3B 与 DeepSeek-R1 对比测试时,保持除模型外其他参数一致,这样对比结果更具参考性,能清晰看出模型在不同任务场景的表现差异
通用文本理解与生成 用日常多样主题的指令,看生成文本的逻辑、表达自然度,测试模型基础语言能力 测试内容 新闻原文(可简化给模型): “本市 XX 小区近期因宠物扰民纠纷增多,居民志愿者发起‘宠物友好公约’倡议,包含遛狗时间、粪便清理等条款,经业主群讨论后,超 8 成住户支持,周末已组织首场文明遛狗宣传活动。” 把这段严肃新闻改写成脱口秀段子,保留核心事件(某小区居民自发组织 “宠物友好公约” ),用幽默吐槽、接地气梗呈现,200 字左右 结果分析 ERNIE-4.5-VL-28B-A3B 更贴近小区邻里唠嗑松弛感,紧扣新闻核心"宠物公约从纠纷到落地",用 “狗子直立行走、业主群炸锅” 这类生活化吐槽,把规则自然融进段子,信息清晰好懂,还留了 “人狗示范区” 互动钩子 DeepSeek-R1 走网感综艺梗路线,拿 “人类驯狗影像、汪汪队宪法” 玩二次创作,脑洞密集但信息碎片化,规则藏在梗里难提炼,更像独立短段子,后续延展话题的空间弱 ERNIE 适合让普通人听明白又乐呵的日常脱口秀,DeepSeek 更对互联网冲浪选手的 “玩梗胃口”,风格差异背后,前者侧重生活场景文本转换,后者偏向网感内容再创作 专业知识问答 选不同领域深度问题,验证知识储备、解答准确性与专业度,体现知识掌握水平 测试内容 请从算法公平性角度,分析深度学习模型在信贷风险评估场景中,可能产生偏见的 3 类核心原因(需区分数据、模型、应用流程维度),并给出对应缓解策略,要求专业逻辑清晰,300 - 400 字。 结果分析 ERNIE - 4.5 - VL - 28B - A3B 围绕算法公平性,从数据、模型、应用流程维度,系统拆解深度学习模型在信贷场景偏见成因,如数据存在偏差、模型结构有局限等,策略覆盖工具优化、架构调整与流程规范,逻辑严谨且专业纵深 DeepSeek - R1 同样按维度分析,结合对抗训练、正则化等技术谈缓解,案例与表述更具网感,侧重实操路径 ERNIE - 4.5 - VL - 28B - A3B 和 DeepSeek - R1 完成知识拆解,但 ERNIE 偏学术体系化输出,DeepSeek 更贴近工程实践场景,差异体现知识组织与风格适配的模型特性 多轮对话连贯性 设计连续关联话题(如先聊旅游经历,再延伸规划下次旅行 ),观察对话衔接、意图理解延续性,检验交互能力。 测试内容 社会话题 - AI 就业影响 Round 1:AI 工具普及,会让普通文案岗位消失吗?Round 2:那文案从业者想转型,该补哪些 AI 技能?Round 3:如果成立一个‘文案人 AI 技能互助小组’,怎么设计学习计划?Round 4:用小组学习计划为基础,写一段招募文案,突出AI 转型必要性 核心测社会议题链:从岗位担忧到转型路径,再到落地行动,看模型对「问题提出→解决方案→执行设计」的逻辑衔接Round 1 Round 2 Round 3 Round 4 ERNIE-4.5-VL-28B-A3B 最终生成内容DeepSeek-R1最终生成内容 结果分析 从多轮对话连贯性看,围绕文案人 AI 转型主题,都完成了需求承接与内容延伸,但风格和逻辑路径有差异:ERNIE走理性赋能路线,以 “问题→方案→价值” 线性推进,从转型焦虑切入,逐步拆解工具、实战、协作等系统策略,回应每一轮对 “转型方法、执行路径” 的需求,像导师式陪跑,逻辑扎实、步骤清晰DeepSeek主打危机破局叙事,用 “威胁→转机→行动” 制造情绪张力,借数据、案例强化紧迫感,回应中融入 “证书、变现” 等现实利益,更像营销式动员,抓眼球、促行动 差异源于模型对 “对话需求” 的理解侧重 :ERNIE 聚焦知识落地的连贯性,DeepSeek 侧重情绪驱动的延续性,一个稳扎稳打教方法,一个剑走偏锋造势能 百度开源文心4.5系列开源
模型类型 激活参数规模 总参数量 模型特点 混合专家(MoE)模型 47B 约 424B 通过专家路由技术,保持高容量的同时显著降低 FLOPs,适用于多模态任务,通过跨模态参数共享机制实现模态间知识融合 混合专家(MoE)模型 3B 约 30B 轻量级多模态模型,具备多模态理解能力,适用于对模型规模和计算资源要求相对较低的场景 稠密参数模型 0.3B 未提及 面向边缘与移动端,参数量小、推理快,适用于资源受限的设备和场景
百度开源文心 4.5 系列的 10 款模型(涵盖 47B、3B 的 MoE 模型及 0.3B 稠密模型),开源不仅为学术界和产业界提供了多规模、多模态的高性能模型底座,降低大模型应用门槛,还通过开放技术细节(如异构 MoE 结构、高效训练推理方案等)推动行业在多模态融合、规模效率化等关键技术上的协同创新,同时助力开发者基于不同参数规模模型快速适配边缘端、移动端到云端等多样化场景,加速大模型技术的产业化落地与生态繁荣。 总结 ERNIE-4.5-VL-28B-A3B-Paddle 百度文心 4.5 系列的多模态 MoE 大模型,以 28B 总参数与 3B 激活参数的高效设计,通过多模态异构 MoE 预训练、规模效率化基础设施及模态特定后训练三大技术创新,在跨模态理解与生成、长文本处理等领域表现卓越,部署流程便捷且适配多场景,与 DeepSeek-R1 相比,在多模态融合与实用场景落地中展现出差异化竞争力 ✅多模态原生融合能力更强 :ERNIE-4.5-VL-28B-A3B-Paddle 借异构 MoE 和模态隔离路由,原生支持图文识别等多模态任务,DeepSeek-R1 是单语言模型,处理多模态需额外适配,原生跨模态能力不足 ✅长文本处理效率与精度更优 :ERNIE-4.5-VL-28B-A3B-Paddle 131072 长上下文,在长文本场景中信息抓取与逻辑连贯性远超 DeepSeek-R1,DeepSeek-R1 相比较易遗漏信息或逻辑断裂 ✅本土化部署与生态适配更完善 :ERNIE-4.5-VL-28B-A3B-Paddle 基于 PaddlePaddle 深度优化,全流程工具链完善,适配国内硬件与行业场景;DeepSeek-R1 虽开源宽松,但本土化生态与场景方案覆盖不足 一起来轻松玩转文心大模型吧👉文心大模型免费下载体验地址 :https://ai.gitcode.com/paddlepaddle/ERNIE-4.5-VL-424B-A47B-Paddle