大模型小模型选型手册:开源闭源、国内国外全方位对比

市面上有哪些模型,国内与国外,开源和闭源,热门的 友好的,哪些是小模型 适合个人本地学习练习用的,按照这些维度或者更多的维度 汇总发我。我需要对 大模型和小模型 有一个总体的了解

基于最新的搜索结果,我为你整理一个全面的大模型和小模型汇总,按照你提到的各个维度来分类:

🌍 国内外模型分布

国外主流模型

闭源商业模型:

  • OpenAI系列:GPT-4o, GPT-4.5-Preview, o1-preview, o1-mini
  • Anthropic系列:Claude 3.5 Sonnet, Claude 3.7 Sonnet
  • Google系列:Gemini 2.0 Pro, Gemini 1.5 Pro, Gemini 2.5 Pro
  • Meta系列:部分闭源版本

开源模型:

  • Meta Llama系列:Llama 3, 3.1, 3.2, 3.3 (8B-405B)
  • Mistral AI系列:Mistral 7B, Mixtral 8x7B/8x22B, Mistral Large
  • Google开源:Gemma 2B/7B, Phi-3, Phi-4
  • 微软:Phi系列 (2.7B-4B)

国内主流模型

主要厂商分布:

  • 阿里巴巴:Qwen系列 (0.5B-72B), QwQ-32B
  • 深度求索:DeepSeek系列 (1B-671B), DeepSeek-R1
  • 字节跳动:Doubao-1.5-pro
  • 腾讯:Hunyuan-turbos
  • 智谱AI:GLM系列, GLM-Zero
  • 百度:ERNIE-4.0系列
  • 月之暗面:Kimi系列
  • 零一万物:Yi系列
  • 360:360智脑系列

🔓 开源 vs 闭源对比

顶级开源模型 (2024-2025)

模型名称参数量特点适用场景
DeepSeek-R1671B推理能力强,成本效益高复杂推理、编程
Qwen2.5-72B72B超越Llama3.1-405B性能通用任务、中文处理
Llama 3.1-405B405B最大开源模型企业级应用
Mixtral 8x22B141B (39B激活)MoE架构,效率高多语言、编程

顶级闭源模型

模型名称开发商Elo评分特点
o3-miniOpenAI76.01最新推理模型
DeepSeek-R1深度求索70.33开源推理之王
Claude 3.7 SonnetAnthropic68.02对话体验佳
GPT-4.5-PreviewOpenAI67.46综合能力强

📱 小模型推荐 (适合个人本地学习)

超轻量模型 (1B-3B)

最适合CPU运行:

  • Qwen2.5-0.5B/1.5B/3B - 阿里巴巴,中文友好
  • Llama 3.2-1B/3B - Meta,移动端优化
  • Gemma-2B - Google,1.4GB大小
  • DeepSeek-R1-Distill-1.5B - 深度求索,推理能力强
  • Phi-2 (2.7B) - 微软,性能优异

轻量模型 (7B级别)

推荐配置:8-16GB显存

  • Qwen2.5-7B - 编程数学能力强 (HumanEval 85+, MATH 80+)
  • Llama 3.1-8B - 128K上下文,通用性好
  • Mistral-7B - 推理能力出色
  • DeepSeek-Coder-7B - 专业编程模型
  • Gemma-7B - 4.8GB大小,平衡性好

中等模型 (13B-32B)

推荐配置:16-32GB显存

  • Qwen2.5-14B/32B - 性能接近大模型
  • DeepSeek-V3 (37B激活) - MoE架构,效率高
  • Mixtral 8x7B - 47B总参数,13B激活
  • Llama 3.2-11B - 视觉语言模型

🔥 热门友好模型推荐

最受欢迎开源模型 (按下载量)

  1. Llama系列 - Meta,生态最完善
  2. Qwen系列 - 阿里巴巴,中文最佳
  3. Mistral系列 - 欧洲之光,商业友好
  4. DeepSeek系列 - 性价比之王
  5. Gemma系列 - Google出品,质量保证

新手最友好模型

本地部署简单:

  • Ollama支持的模型:一键部署
    • ollama run llama3 (8B, 4.7GB)
    • ollama run qwen:7b
    • ollama run gemma:2b (1.4GB)
    • ollama run deepseek-coder:7b

💻 本地部署硬件需求指南

显存需求计算公式

  • 无量化:显存(GB) = 参数量(B) × 2
  • 4bit量化:显存(GB) = 参数量(B) ÷ 2
  • 8bit量化:显存(GB) = 参数量(B) × 1

硬件配置推荐

显存大小推荐模型量化方式
4-8GB1B-3B模型无需量化
8-16GB7B模型4bit量化
16-24GB13B-14B模型4bit量化
24-32GB32B模型4bit量化
40GB+70B+模型4bit量化

CPU运行友好模型

  • Phi-2 (2.7B) - CPU友好,性能不错
  • TinyLlama (1.1B) - 专为资源受限设备设计
  • Qwen2.5-0.5B - 超轻量,CPU可流畅运行

🚀 快速开始推荐

零基础入门路线

  1. Ollama + Qwen2.5-7B - 最佳中文体验
  2. Ollama + Llama 3.1-8B - 最佳通用体验
  3. Ollama + Gemma-2B - 最低硬件要求
  4. Ollama + DeepSeek-Coder-7B - 编程学习专用

进阶路线

  1. 本地部署Qwen2.5-32B - 接近商业模型体验
  2. 尝试DeepSeek-R1 - 体验开源推理能力
  3. 部署专业模型 - 如数学专用、代码专用等

📊 2024-2025最新排名总结

综合能力TOP5:

  1. DeepSeek-R1 (开源推理之王)
  2. QwQ-32B (阿里巴巴推理模型)
  3. Qwen2.5-72B (综合性能优异)
  4. Llama 3.1-405B (开源最大模型)
  5. Mixtral 8x22B (MoE架构典范)

个人学习TOP5:

  1. Qwen2.5-7B (中文+编程双强)
  2. Llama 3.1-8B (生态完善)
  3. DeepSeek-Coder-7B (编程专业)
  4. Gemma-7B (Google品质)
  5. Mistral-7B (推理优秀)

这个汇总覆盖了从超轻量CPU模型到大型GPU模型的完整谱系,你可以根据自己的硬件条件和学习目标选择合适的模型开始实践!

Read more

『NAS』在飞牛部署 Solara 开源音乐播放器,无损音乐听下两不误!

『NAS』在飞牛部署 Solara 开源音乐播放器,无损音乐听下两不误!

点赞 + 关注 + 收藏 = 学会了 整理了一个 NAS 专属玩法专栏,感兴趣的工友可以戳这里👉 《NAS邪修》 关注,,更多干货持续更新~ Solara 这款开源本地音乐播放器真的太香了,不仅能在线播放音乐,还能下载无损音质,亲测好用🐂🍺! 本次实操以飞牛 NAS 为例,群晖、绿联、极空间等其他品牌 NAS 的操作逻辑基本一致,跟着步骤来就能搞定~ 打开 NAS 的「文件管理」,找到docker文件夹,在其内部新建solara-music文件夹。 接着在solara-music文件夹中,再创建一个logs子文件夹,用于存放播放器日志文件。 打开 NAS 的「Docker」应用,切换至「Compose」面板,点击「新增项目」。 * 项目名称:Solara * 路径:选择第一步创建的docker/solara-music文件夹 * 来源:

By Ne0inhk
开源智能体搭建平台MaxKB4j 技术文档

开源智能体搭建平台MaxKB4j 技术文档

MaxKB4j 技术文档 项目概述 MaxKB4j (Max Knowledge Base for Java) 是一个基于 Java/Spring Boot 和 LangChain4j 构建的开源的 RAG(检索增强生成)知识库和 LLM 工作流平台,支持多模型集成、可视化工作流编排、知识库问答和多模态能力,专为构建企业级智能问答系统而设计。 核心特性 * 开箱即用的知识库问答: 支持上传本地文档或自动抓取网页内容,自动完成文本分块 → 向量化 → 向量数据库存储 → RAG 流程构建 * 模型无关的灵活集成: 支持多种主流大语言模型(OpenAI、Claude、Gemini、DeepSeek、Qwen、Ollama 等) * 可视化工作流编排: 内置低代码 AI 工作流引擎,支持条件分支、函数调用、多轮对话记忆 * MCP

By Ne0inhk
[Git] 初识 Git 与安装入门

[Git] 初识 Git 与安装入门

告别文件噩梦:初识 Git 与安装入门 嘿,朋友!不知道你是不是也遇到过这样的情况:你在写一份重要的文档、报告,或者更常见的,一段代码时,为了安全起见,怕改错了回不去,或者想保留不同阶段的版本,于是不得不像这样保存文件: * “报告-v1.doc” * “报告-v2.doc” * “报告-最终版.doc” * “报告-最终版-最终的最终版.doc” * “报告-领导说再改改版.doc” * … 是不是看着就头大?电脑里塞满了各种名字相似的文件,时间一长,你根本分不清“最终版”和“最终的最终版”到底差在哪里,想要找回某个阶段的内容更是难上加难。 文档如此,我们辛辛苦苦写出来的代码更是这样!如果代码没有版本管理,那简直是一场灾难,特别是当需要和别人协作的时候。 别怕!解决这个问题的“神器”来了——它就是版本控制系统。 什么是版本控制系统? 想象一下,版本控制系统就像一个超级详细的“文件时光机”或者“改动日志本”

By Ne0inhk
OpenCode 免费使用 Kimi K2.5 完整指南:国产最强开源模型零成本体验

OpenCode 免费使用 Kimi K2.5 完整指南:国产最强开源模型零成本体验

什么是 Kimi K2.5? Kimi K2.5 是月之暗面 (Moonshot AI) 于 2026 年 1 月发布的开源多模态大模型,总参数量达 1 万亿,激活参数 320 亿,在多项基准测试中超越 Claude Opus 4.5,尤其在编程和 Agent 任务上表现卓越。 OpenCode 作为最热门的开源 AI 编程助手,现已正式支持 Kimi K2.5。更令人兴奋的是,通过多种渠道,你可以限时免费体验这款国产最强开源模型。本文将详细介绍配置方法和使用技巧。 为什么选择 Kimi K2.5? 在深入配置之前,先了解 Kimi K2.5

By Ne0inhk