全球顶级AI大模型最新排名出炉!Gemini 3.1 Pro与GPT-5.4智能并列第一,中国 GLM-5强势杀入前 5,DeepSeek V3.2 成性价比之王!

全球顶级AI大模型最新排名出炉!Gemini 3.1 Pro与GPT-5.4智能并列第一,中国 GLM-5强势杀入前 5,DeepSeek V3.2 成性价比之王!

你好,我是杰哥

刚刚,权威 AI 评测平台Artificial Analysis 发布了全球最新大模型三维排名:智能指数(Intelligence)、**输出速度(Output Tokens per Second)**和 价格(USD per 1M Tokens)

这次排名亮点满满:

  • 中美模型继续霸榜智能顶端,Gemini 3.1 Pro Preview 和 GPT-5.4(xhigh)并列57分第一
  • 中国模型表现亮眼GLM-5 智能第5(50分),DeepSeek V3.2虽然智能中等,但价格+速度综合性价比极高,继续展现“中国力量”!
GLM-5 是由中国领先的 AI 公司智谱AI(Zhipu AI)于 2026年2月11日(春节前夕)正式发布的新一代开源旗舰大模型,也被视为国产大模型在2026年开年的重磅作品。它在全球权威评测平台 Artificial AnalysisIntelligence Index 中获得 50分,位居全球第 5、开源模型第一,成为中国模型首次突破这一分数线的重要里程碑。
  • 速度王被 NVIDIA Nemotron 3 Super 夺走,价格最便宜的仍是开源/中国系模型。

下面我们一起具体来看。

一、智能指数(Intelligence)

核心能力排名,代表模型的综合推理、知识、创造力水平。

排行榜如下图(前10名):

  • Gemini 3.1 Pro Preview(Google):57分(并列第1)
  • GPT-5.4 (xhigh) (OpenAI):57分(并列第1)
  • Claude Opus 4.6 (max) (Anthropic):53分
  • Claude Sonnet 4.6 (max) (Anthropic):52分
  • GLM-5(智谱AI):50分 (中国模型第1,全球第5!)
  • Grok 4.20 Beta 0309(xAI):48分
  • Gemini 3 Flash(Google):46分
  • DeepSeek V3.2:42分
  • Nemotron 3 Super(NVIDIA):36分
  • gpt-oss-120B (high) :33分

杰哥点评
GeminiGPT-5.4 再次并驾齐驱,智能天花板被拉到新高度!中国 GLM-5 从上期榜单继续前进,稳居前 5,证明国产大模型在核心能力上已与国际顶级阵营并肩。DeepSeek V3.2 虽未进前 5,但作为开源/低成本代表,仍有不俗表现。Claude 双子星依然稳健,但已被中美模型拉开小差距。

二、输出速度(Speed)

每秒输出Token数,直接决定聊天、写作、代码生成的流畅度。

排行榜如下图(前10名):

  • NVIDIA Nemotron 3 Super:455 tokens/s(第1!)
  • gpt-oss-120B (high) :279 tokens/s(第2)
  • Grok 4.20 Beta 0309 :216 tokens/s
  • Gemini 3 Flash:166 tokens/s
  • Gemini 3.1 Pro Preview :125 tokens/s
  • GPT-5.4 (xhigh) :73 tokens/s
  • GLM-5:67 tokens/s
  • Claude Sonnet 4.6 (max) :55 tokens/s
  • Claude Opus 4.6 (max) :48 tokens/s
  • DeepSeek V3.2:28 tokens/s

杰哥点评
速度王彻底易主!NVIDIA Nemotron 3 Super455 tokens/s 碾压,成为“闪电侠”。Grok 4.20Gemini Flash 也进入前 4,日常使用体验极佳。GPT-5.4GLM-5 速度中等偏上,DeepSeek V3.2 速度偏慢,但胜在后面价格优势巨大——适合不追求极致速度的场景

三、价格(Price)

每百万Token美元价格(输入+输出综合参考),直接影响大规模使用成本。

排行榜如下图(从低到高):

  • gpt-oss-120B:0.3美元
  • DeepSeek V3.2:0.3美元(并列最便宜!)
  • Nemotron 3 Super:0.4美元
  • Gemini 3 Flash:1.1美元
  • GLM-5:1.6美元
  • Grok 4.20 Beta 0309:3美元
  • Gemini 3.1 Pro Preview:4.5美元
  • GPT-5.4 (xhigh) :5.6美元
  • Claude Sonnet 4.6 (max) :6美元
  • Claude Opus 4.6 (max) :10美元

杰哥点评
性价比之王诞生DeepSeek V3.2gpt-oss-120B 以 0.3美元/百万Token 并列最低,NVIDIA Nemotron 仅 0.4 美元——这三款几乎是“白菜价”。而顶级智能模型(Gemini/GPT-5.4/Claude Opus)价格明显更高,适合需要极致能力的场景。中国模型再次在成本控制上领先全球

总结:怎么选才是最优解?

  • 追求最强智能(写作、推理、复杂任务):Gemini 3.1 Pro PreviewGPT-5.4(57分天花板)
  • 追求极致速度(实时聊天、代码生成):NVIDIA Nemotron 3 Super(455 tokens/s)
  • 追求性价比(日常高频使用、创业/企业):DeepSeek V3.2gpt-oss-120B(0.3美元+可用速度)
  • 中国用户优选:GLM-5(智能前5+价格合理)、DeepSeek V3.2(最便宜)

AI时代,没有绝对最强,只有最适合。根据你的使用场景(智能/速度/预算)灵活选择,就能事半功倍!

你最看好哪款模型?是在用 GeminiGPT 还是国产 DeepSeek/GLM?欢迎评论区告诉我~

关注【AI信息风向】后,回复 666,即可获取更多 AI 行业报告。

AI 技术正以前所未有的速度发展,它将如何塑造我们的未来?让我们拭目以待。

Read more

【AIGC】AI工作流workflow实践:构建日报

【AIGC】AI工作流workflow实践:构建日报

workflow实践 * 引言 * 实现步骤分析 * 实践 * 创建 dify workflow 应用 * 创建工作流内部节点 * 1、设置输入字段 * 2、创建两个LLM节点 * 3、设置结束节点 * 运行工作流 * 结语 引言 工作流 workflow 是现在 LLM 很重要的一个概念,因为对于一个模型来说,非常复杂的问题很难一次性完美解决,而且可能需要很多别的辅助工具。而工作流就是将这些工具和模型组合起来,形成一个完整的解决方案。今天我们来做个工作流实践,帮助读者理解工作流。我们来构建一个帮助我们写日报的工作流。在帮助我们完成日报的填写的同时,我们需要它进行 AI 味的去除,免得出现别人一看就是 AI 写出来的文章的情况。 实现步骤分析 1. 我们需要一个可以构建工作流的平台,这边我们选择 dify 2. 我们需要模型根据我们提供的今天做的事情去自动生成日报 我们需要对刚才生成的文章进行 AI 味的去除 实践 创建

大模型微调 PEFT vs LLaMA-Factory

大模型微调 PEFT vs LLaMA-Factory:两种微调(SFT)模式深度对比与原理解析 在 LLM(大语言模型)微调的圈子里,开发者通常会接触到两种截然不同的流派:一种是原生代码流,即直接使用 HuggingFace Transformers 和 PEFT 库编写 Python 代码;另一种是框架工具流,以 LLaMA-Factory 为代表的集成化工具。 一、 两种微调模式简介 1. PEFT 核心逻辑:开发者需要自己处理数据清洗、Tokenizer 编码、Label Masking(标签掩码)、模型加载、LoRA 配置挂载以及训练循环。 2. LLaMA-Factory 这是目前工业界和学术界快速迭代的首选。 核心逻辑:将上述繁琐的代码封装成“黑盒”,通过配置驱动(YAML 或 命令行参数)来控制训练。

本地部署 Kimi K2 全指南(llama.cpp、vLLM、Docker 三法)

本地部署 Kimi K2 全指南(llama.cpp、vLLM、Docker 三法)

Kimi K2 是 Moonshot AI 于2025年7月11日发布的高性能多专家语言模型(MoE),支持最大 128K 上下文,激活参数规模为 32B,具备极强的推理、代码生成与多轮对话能力。自从其权重以多种格式开源以来,许多开发者希望将其部署在本地,以获得更高的私密性和灵活性。 本文将详细介绍三种主流本地部署路径,并提供完整的配置步骤和使用建议。 📦 准备工作(通用部分) 在进行部署前,请准备如下环境与资源: ✅ 最低硬件配置建议: 项目要求存储空间≥ 250 GB(用于量化模型,若使用 FP8 请预留 1 TB)内存≥ 128 GB RAM(越大越流畅)GPU≥ 24 GB 显存,推荐多卡(如 2×A100、H100)操作系统Linux(Ubuntu 推荐)

GitHub Copilot Pro 学生认证免费订阅及VS Code集成完整教程

GitHub Copilot Pro 学生认证免费订阅及VS Code集成完整教程

GitHub Copilot Pro 学生认证免费订阅及VS Code集成完整教程 一、学生认证资格与前期准备 1.1 认证资格要求 GitHub Copilot Pro 为经官方验证的全日制学生、在职教师及热门开源项目维护者提供免费订阅权限。认证需满足以下核心条件: * 学生需提供有效学籍证明(学生卡/学信网认证) * 教师需提供工作证/教师资格证 * 使用学校官方邮箱(以.edu或.edu.cn结尾) * 账户需通过双重身份认证(2FA) 1.2 账户设置准备 1. 绑定教育邮箱 在GitHub账户设置中添加学校邮箱,并完成验证: * 进入Settings → Emails → Add email address * 输入形如[email protected]的邮箱 * 登录学校邮箱查收验证邮件并确认 2. 完善个人信息 在Profile → Edit profile中填写: