全球顶级AI大模型最新排名出炉!Gemini 3.1 Pro与GPT-5.4智能并列第一,中国 GLM-5强势杀入前 5,DeepSeek V3.2 成性价比之王!

全球顶级AI大模型最新排名出炉!Gemini 3.1 Pro与GPT-5.4智能并列第一,中国 GLM-5强势杀入前 5,DeepSeek V3.2 成性价比之王!

你好,我是杰哥

刚刚,权威 AI 评测平台Artificial Analysis 发布了全球最新大模型三维排名:智能指数(Intelligence)、**输出速度(Output Tokens per Second)**和 价格(USD per 1M Tokens)

这次排名亮点满满:

  • 中美模型继续霸榜智能顶端,Gemini 3.1 Pro Preview 和 GPT-5.4(xhigh)并列57分第一
  • 中国模型表现亮眼GLM-5 智能第5(50分),DeepSeek V3.2虽然智能中等,但价格+速度综合性价比极高,继续展现“中国力量”!
GLM-5 是由中国领先的 AI 公司智谱AI(Zhipu AI)于 2026年2月11日(春节前夕)正式发布的新一代开源旗舰大模型,也被视为国产大模型在2026年开年的重磅作品。它在全球权威评测平台 Artificial AnalysisIntelligence Index 中获得 50分,位居全球第 5、开源模型第一,成为中国模型首次突破这一分数线的重要里程碑。
  • 速度王被 NVIDIA Nemotron 3 Super 夺走,价格最便宜的仍是开源/中国系模型。

下面我们一起具体来看。

一、智能指数(Intelligence)

核心能力排名,代表模型的综合推理、知识、创造力水平。

排行榜如下图(前10名):

  • Gemini 3.1 Pro Preview(Google):57分(并列第1)
  • GPT-5.4 (xhigh) (OpenAI):57分(并列第1)
  • Claude Opus 4.6 (max) (Anthropic):53分
  • Claude Sonnet 4.6 (max) (Anthropic):52分
  • GLM-5(智谱AI):50分 (中国模型第1,全球第5!)
  • Grok 4.20 Beta 0309(xAI):48分
  • Gemini 3 Flash(Google):46分
  • DeepSeek V3.2:42分
  • Nemotron 3 Super(NVIDIA):36分
  • gpt-oss-120B (high) :33分

杰哥点评
GeminiGPT-5.4 再次并驾齐驱,智能天花板被拉到新高度!中国 GLM-5 从上期榜单继续前进,稳居前 5,证明国产大模型在核心能力上已与国际顶级阵营并肩。DeepSeek V3.2 虽未进前 5,但作为开源/低成本代表,仍有不俗表现。Claude 双子星依然稳健,但已被中美模型拉开小差距。

二、输出速度(Speed)

每秒输出Token数,直接决定聊天、写作、代码生成的流畅度。

排行榜如下图(前10名):

  • NVIDIA Nemotron 3 Super:455 tokens/s(第1!)
  • gpt-oss-120B (high) :279 tokens/s(第2)
  • Grok 4.20 Beta 0309 :216 tokens/s
  • Gemini 3 Flash:166 tokens/s
  • Gemini 3.1 Pro Preview :125 tokens/s
  • GPT-5.4 (xhigh) :73 tokens/s
  • GLM-5:67 tokens/s
  • Claude Sonnet 4.6 (max) :55 tokens/s
  • Claude Opus 4.6 (max) :48 tokens/s
  • DeepSeek V3.2:28 tokens/s

杰哥点评
速度王彻底易主!NVIDIA Nemotron 3 Super455 tokens/s 碾压,成为“闪电侠”。Grok 4.20Gemini Flash 也进入前 4,日常使用体验极佳。GPT-5.4GLM-5 速度中等偏上,DeepSeek V3.2 速度偏慢,但胜在后面价格优势巨大——适合不追求极致速度的场景

三、价格(Price)

每百万Token美元价格(输入+输出综合参考),直接影响大规模使用成本。

排行榜如下图(从低到高):

  • gpt-oss-120B:0.3美元
  • DeepSeek V3.2:0.3美元(并列最便宜!)
  • Nemotron 3 Super:0.4美元
  • Gemini 3 Flash:1.1美元
  • GLM-5:1.6美元
  • Grok 4.20 Beta 0309:3美元
  • Gemini 3.1 Pro Preview:4.5美元
  • GPT-5.4 (xhigh) :5.6美元
  • Claude Sonnet 4.6 (max) :6美元
  • Claude Opus 4.6 (max) :10美元

杰哥点评
性价比之王诞生DeepSeek V3.2gpt-oss-120B 以 0.3美元/百万Token 并列最低,NVIDIA Nemotron 仅 0.4 美元——这三款几乎是“白菜价”。而顶级智能模型(Gemini/GPT-5.4/Claude Opus)价格明显更高,适合需要极致能力的场景。中国模型再次在成本控制上领先全球

总结:怎么选才是最优解?

  • 追求最强智能(写作、推理、复杂任务):Gemini 3.1 Pro PreviewGPT-5.4(57分天花板)
  • 追求极致速度(实时聊天、代码生成):NVIDIA Nemotron 3 Super(455 tokens/s)
  • 追求性价比(日常高频使用、创业/企业):DeepSeek V3.2gpt-oss-120B(0.3美元+可用速度)
  • 中国用户优选:GLM-5(智能前5+价格合理)、DeepSeek V3.2(最便宜)

AI时代,没有绝对最强,只有最适合。根据你的使用场景(智能/速度/预算)灵活选择,就能事半功倍!

你最看好哪款模型?是在用 GeminiGPT 还是国产 DeepSeek/GLM?欢迎评论区告诉我~

关注【AI信息风向】后,回复 666,即可获取更多 AI 行业报告。

AI 技术正以前所未有的速度发展,它将如何塑造我们的未来?让我们拭目以待。

Read more

SLAM前端中的GPU加速——以vins-fusion-gpu和ORB_SLAM2_CUDA为例

1  GPU GPU并不是一个独立运行的计算平台,而需要与CPU协同工作,可以看成是CPU的协处理器,因此当我们在说GPU并行计算时,其实是指的基于CPU+GPU的异构计算架构。在异构计算架构中,GPU与CPU通过PCIe总线连接在一起来协同工作,CPU所在位置称为为主机端(host),而GPU所在位置称为设备端(device)。 可以看到GPU包括更多的运算核心,其特别适合数据并行的计算密集型任务,如大型矩阵运算,而CPU的运算核心较少,但是其可以实现复杂的逻辑运算,因此其适合控制密集型任务。另外,CPU上的线程是重量级的,上下文切换开销大,但是GPU由于存在很多核心,其线程是轻量级的。因此,基于CPU+GPU的异构计算平台可以优势互补,CPU负责处理逻辑复杂的串行程序,而GPU重点处理数据密集型的并行计算程序,从而发挥最大功效。 CUDA是NVIDIA公司所开发的GPU编程模型,它提供了GPU编程的简易接口,基于CUDA编程可以构建基于GPU计算的应用程序,将cpu指令翻译成GPU指令。CUDA提供了对其它编程语言的支持,如C/C++,Python,Fortran等语

构建现代化电商前端的终极方案:WooNuxt完整指南

构建现代化电商前端的终极方案:WooNuxt完整指南 【免费下载链接】woonuxtStatic e-commerce powered by WooCommerce & Nuxt 项目地址: https://gitcode.com/gh_mirrors/wo/woonuxt 在电商竞争日益激烈的今天,一个高性能、用户体验优秀的前端系统已成为制胜关键。WooNuxt作为专为WooCommerce设计的静态电商解决方案,正在重新定义电商前端的开发标准。 核心价值:为什么选择WooNuxt? WooNuxt将WordPress的WooCommerce后端与Nuxt 3的前端能力完美结合,为企业提供了前所未有的开发效率和用户体验。通过WPGraphQL实现数据高效传输,同时保持WordPress的易用性和Nuxt的现代化特性。 技术架构深度解析 前后端分离的现代化设计 WooNuxt采用完全分离的架构模式,后端基于成熟的WooCommerce系统,前端则利用Nuxt 3的服务器端渲染能力,确保页面加载速度和SEO表现达到最优水平。 组件化开发体系 项目内置了完整的电商

前端代码可读性优化:让你的代码不再像天书

前端代码可读性优化:让你的代码不再像天书 毒舌时刻 代码可读性?听起来就像是前端工程师为了显得自己很专业而特意搞的一套复杂流程。你以为随便加几个注释就能提高代码可读性?别做梦了!到时候你会发现,注释比代码还多,维护起来比代码还麻烦。 你以为变量名取长一点就能提高可读性?别天真了!过长的变量名会让代码变得臃肿,反而影响可读性。还有那些所谓的代码规范,看起来高大上,用起来却各种问题。 为什么你需要这个 1. 提高可维护性:良好的代码可读性可以提高代码的可维护性,减少维护成本。 2. 减少错误:可读性高的代码更容易理解,减少出错的概率。 3. 团队协作:良好的代码可读性可以便于团队成员之间的协作,减少沟通成本。 4. 代码复用:可读性高的代码更容易被复用,提高开发效率。 5. 降低学习成本:新团队成员可以更快地理解代码,降低学习成本。 反面教材 // 1. 变量名不清晰 function calc(a, b, c) { let x = a + b;

Qwen3Guard-Gen-WEB跨平台方案:Windows/Mac用户云端无障碍体验

Qwen3Guard-Gen-WEB跨平台方案:Windows/Mac用户云端无障碍体验 在现代跨平台开发团队中,协作效率往往被“环境不一致”问题拖累。尤其是当项目涉及AI大模型如Qwen3Guard时,Mac用户常常因为显卡驱动、CUDA支持或算力不足等问题无法本地运行服务,而Windows用户也可能受限于消费级GPU的性能瓶颈。这不仅影响了开发进度,还导致代码审查、功能测试和联调环节频繁出错。 为了解决这一痛点,Qwen3Guard-Gen-WEB跨平台方案应运而生——它将Qwen3Guard模型推理能力封装成一个可云端部署的Web服务,所有团队成员无论使用Mac、Windows还是Linux设备,只需通过浏览器或API即可无缝接入,真正实现“一次部署,全员可用”。 这个方案的核心优势在于:无需本地安装复杂依赖,不依赖特定操作系统,也不要求高性能硬件。你只需要一台能上网的电脑,就能调用强大的Qwen3Guard生成式安全检测能力。特别适合中小型研发团队、远程办公小组或教育类项目组,在保障内容安全的同时极大降低技术门槛。 本文将带你从零开始,一步步搭建并使用这套云端Qwen3