我用6个AI测了一圈,谁是国产Agent第一名,答案出奇地一致

我做了一个有点无聊但结果挺有意思的实验:用6个主流 AI,问同一个问题——“国产 AI Agent 谁最强,给我排个前三”。

结果出奇地整齐。

先问海外的

为了避免"自家夸自家"的嫌疑,先从理论上没有利益关系的海外模型问起。

ChatGPT 的答案是:百度、腾讯、阿里。

ChatGPT评选国产Agent三巨头:百度、腾讯、阿里

Gemini 给了略微不同的排法:百度、阿里、字节——但百度还是第一。

Gemini锐评国产Agent三巨头:百度、阿里、字节

Gemini 在回答里用了"基建狂魔"来描述百度,说百度在芯片、云、模型、应用层都有自己的布局。这个词没什么水分,讲的是一件具体的事。

再问国内的

国内四家的结论更集中。

DeepSeek:百度、腾讯、阿里。

DeepSeek评国产Agent三巨头:百度、腾讯、阿里

文心:百度、腾讯、阿里——跟 DeepSeek 一字不差。

文心评选结果:百度、腾讯、阿里

豆包的答案有点意思:百度、字节、腾讯。字节自家产品,没有把自家排第一。

豆包评价Agent三大家:百度、字节、腾讯

千问的措辞挺有梗:一超(百度)两强(腾讯、阿里)。

千问评Agent三大家:一超(百度)两强(腾讯、阿里)

全球榜单也是同一个结论

不只是 AI 自己的判断,外部独立排名也指向同一方向。

全球 AI Agent 产品榜上,百度是仅次于 OpenAI 原版的存在。

全球AI Agent产品榜(英文版)

中文版榜单:

全球AI Agent产品榜(中文版)

单从用户友好度这个维度看,评分最高的几款也基本有百度的身影。

AI Agent产品TOP10·用户友好榜

为什么是百度?

把几家 AI 给出的理由整理了一下,高度重合,主要是这几点。

产品线最全。 百度在 Agent 方向推了好几款:面向 PC 端办公场景的 DuMate、手机端的 RedClaw、还有面向开发者的 DuClaw。单个产品的细分优势可能各有长短,但整体覆盖的场景确实比其他家宽。

搜索能力。 Agent 要完成任务,读取外部信息是刚需——搜索就是 Agent 的"眼睛"。百度在这块的积累很深,DuClaw 的搜索 Skill 在全球开发者社区的下载量排全球第一,这不是虚的。

全栈布局。 不只做应用层,芯片、云、模型、应用一条线自己都有。这意味着出问题的时候能自己解决,也意味着产品迭代不受制于人。

说白了,这次测试测的不只是产品,测的是行业共识——6个训练数据来源、训练方式都不同的大模型,给出了高度一致的答案。

豆包那一票

最后说回豆包。

豆包是字节的产品,但它把百度排了第一、字节排了第二。这个细节挺值得品一品:如果一个 AI 天然会给自家打高分,那豆包没这么做,说明训练数据里的行业认知有一定的客观性。

比"百度自己说自己强"要有说服力多了。

总结: 6个 AI(含 ChatGPT、Gemini)独立评选国产 Agent 三巨头,百度全票第一。全球独立榜单也给出同样结论。核心原因:产品矩阵最全、搜索能力扎实、全栈布局稳。

🦞 想一起养成你的小龙虾军团?

在公众号对话框回复「小龙虾」,加入龙虾养成群——一个专门交流如何用 OpenClaw 做自媒体、搞变现的玩家社群。

军团越强,变现越快。来一起练级 👇

参考链接

  • DuMate 官网:https://dumate.baidu.com

Read more

2026年高校AIGC检测新规解读:AI率多少算合格?

2026年高校AIGC检测新规解读:AI率多少算合格?

2026年高校AIGC检测新规解读:AI率多少算合格? 从2024年知网正式上线AIGC检测功能开始,短短两年时间,"AI率"已经从一个新鲜名词变成了每个毕业生必须面对的硬性指标。2026年,各高校的AIGC检测政策进一步收紧和细化,要求也越来越明确。 那么,2026年AI率到底多少才算合格?不同学校的标准差别大吗?不合格会面临什么后果?本文将对这些问题进行深入解读。 一、AIGC检测已成为毕业论文审查的标配 回顾AIGC检测在高校中的普及历程,可以用"指数级扩散"来形容: * 2024年:知网上线AIGC检测功能,少数985/211院校开始试点,大部分学校处于观望状态 * 2025年:超过60%的本科院校和80%的研究生培养单位将AIGC检测纳入论文审查流程 * 2026年:AIGC检测基本实现全覆盖,包括专科院校在内的绝大部分高等教育机构都已建立相关制度 这一进程的背后,是教育部在2025年初发布的《关于加强高等学校学位论文学术诚信管理的指导意见》,其中明确提到"鼓励各高校引入人工智能生成内容检测机制,将AIGC检测作为论文质量保障的重要环节"。 虽然教育部没

AIGC(生成式AI)试用 47 -- AI与软件开发过程2

一切从 AIGC(生成式AI)试用 46 -- AI与软件开发过程1 开始,修正偏差。 个人理解: - 从框架到细节,还是从细节到框架? -- 先有框架再有细节的好,LLM能适应框架下的细节补充 - 更细节的Agent,更有针对性的Agent,解决更细节问题的Agent -- LLM提供了另一种形式的开发工具 - 想要,架构,细节,实现。。。。。。往复迭代,更多的接口,更多小而美的功能软件 - 回复有错吗?当然,错误和偏差大量存在。   如何纠偏、调优?这些专业知识 和 经验,还需要创造 * 先解决3问题 1. 确认软件开发过程各阶段所需完成的任务活动,以选择不同LLM 问题定义与可行性研究 → 需求分析 → 软件设计 → 编码与实现 → 测试 → 部署与交付

LLaMA-Factory微调多模态大模型Qwen3-VL

LLaMA-Factory微调多模态大模型Qwen3-VL

LLaMA-Factory微调多模态大模型Qwen3-VL 目录 LLaMA-Factory微调多模态大模型Qwen3-VL 1. 显卡驱动 2. 模型微调 3. 模型导出 4. 模型部署:vLLM服务 5. 测试效果 1. 显卡驱动 * 显卡型号:NVIDIA GeForce RTX 3090 24G * 显卡驱动:NVIDIA-SMI 535.171.04             * CUDA: 12.2 ,Driver Version: 535.171.04   微调Qwen3-VL-2B模型,至少需要12G显存 2. 模型微调 项目采用大型语言模型工厂(LLaMA-Factory)对大模型微调,目前可支持Qwen3 / Qwen2.5-VL / Gemma 3 / GLM-4.1V / InternLM

GitHub Copilot 调用第三方模型API

GitHub Copilot 调用第三方模型API

一、说明 OAI Compatible Provider for Copilot 的作用是:把 Copilot/Copilot Chat 发出的“类似 OpenAI API 的请求”,转发到指定的 OpenAI-Compatible 服务端(例如 ModelScope 推理网关、自建的兼容网关等)。 ⚠️ Warning 登录 GitHub Copilot 的账号一定要是非组织方式开通 pro 会员的,不然无法管理模型。 推荐直接用免费的free账号登录即可。 二、插件安装 在 VS Code 扩展市场安装并启用: * GitHub Copilot * GitHub Copilot Chat * OAI Compatible Provider for Copilot (johnny-zhao.