主流大模型介绍(GPT、Llama、ChatGLM、Qwen、deepseek)

主流大模型介绍(GPT、Llama、ChatGLM、Qwen、deepseek)

GPT系列模型

一、ChatGPT 的本质

  • 发布者:OpenAI(2022年11月30日)
  • 类型:聊天机器人模型,基于自然语言处理技术
  • 核心能力:理解语言、生成对话、撰写邮件/文案/代码、翻译等
  • 增长数据:2个月用户破1亿,日活约1300万

二、GPT 系列模型演进对比

模型发布时间参数量核心创新主要局限
GPT-12018.061.17亿引入生成式预训练 + Transformer Decoder语言模型单向;需微调才能泛化
GPT-22019.0215亿多任务学习 + Zero-shot 能力无监督能力仍有限
GPT-32020.051750亿Few-shot 学习 + Sparse Attention成本高、长文本不稳定、内容不可控
ChatGPT2022.11基于GPT-3引入 RLHF(人类反馈强化学习)服务不稳定、可能生成错误信息

三、核心技术点回顾

1. GPT-1
  • 使用单向 Transformer Decoder(去掉了 Encoder-Decoder Attention)
  • 擅长:自然语言生成(NLG)
  • 不擅长:自然语言理解(NLU,相比BERT)
2. GPT-2
  • 结构微调:Layer Normalization 前置、增加序列长度到1024
  • 核心理念:无监督多任务学习
  • 贡献:验证了大模型 + 大数据的迁移能力
3. GPT-3
  • 引入 Sparse Attention,降低复杂度 O(n²) → O(n log n)
  • 支持 Few-shot / One-shot / Zero-shot
  • 不再对每个任务进行微调(降低成本)

Sparse Attention 稀释注意力,Sparse Attention 通过只让每个 token 关注局部邻居和部分远距离 token,将注意力计算复杂度从 O(n²) 降到 O(n·log n),使 GPT-3 能够高效处理长序列文本,大幅增强了长文本处理能力,节省了计算资源用来处理更长的文本。

4. ChatGPT
  • 解决“模型能力不一致”问题(即训练好但实际表现不符合人类预期)
  • 方法:RLHF(人类反馈强化学习)
    • 人类对模型输出进行排序
    • 训练奖励模型
    • 使用强化学习优化生成策略
RLHF >> SFT、RM、PPO

SFT  >> Supervised Fine-Tuning 监督微调,使用人工标注引导模型学习人类偏好

RM  >> Reward Model 训练奖励模型

PPO >> 用 PPO 算法更新模型,让SFT模型根据奖励模型的反馈不断改进



1. SFT 阶段:人类通过标注理想答案,监督微调大模型,让其初步学习人类偏好
2. RM 阶段:人类对模型生成的多个答案进行排序,用这些排序数据训练一个奖励模型
3. PPO 阶段:用奖励模型打出的分数作为反馈信号,通过强化学习让大模型不断优化



人类标注 → SFT 微调 → 人类排序 → RM 奖励模型 → PPO 强化学习 → ChatGPT

后序RLHF 因人工标注成本问题进阶RLAIF >> 基于AI反馈的强化学习 LLM有这个能力

四、GPT vs BERT 本质区别

维度GPTBERT
架构Transformer DecoderTransformer Encoder
注意力方向单向(从左到右)双向
擅长任务文本生成(NLG)文本理解(NLU)

五、ChatGPT 优缺点总结

✅ 优点
  • 回答更理性、全面、多角度
  • 降低学习与内容创作成本
❌ 缺点
  • 服务不稳定
  • 可能“一本正经地胡说八道”

六、GPT总结

ChatGPT 的成功并非一蹴而就,而是 GPT 系列模型四年演进的集大成者。从 GPT-1 的单向生成,到 GPT-2 的多任务尝试,再到 GPT-3 的规模爆发,最后通过 RLHF 实现人类对齐 —— 这是一条从“模型能力”走向“人类价值对齐”的技术路径。ChatGPT 的真正突破,不只是大,而是学会了“听人话,说人话”。

LLM 主流开源大模型

一、主流大模型概览

模型开发者特点开源协议
LLaMAMeta开源先驱,Llama 3 支持商用Llama 协议(巨头需单独授权)
ChatGLM清华中英双语,6B 可跑消费级显卡开源
Qwen阿里多语言,Qwen2.5 支持 1M 上下文Apache 2.0
Baichuan百川智能中英双语,可商用开源
Yi零一万物中英双语,34B 性能对标 LLaMA-2开源
DeepSeek深度求索MoE 架构,671B 参数,MIT 协议MIT(最宽松)

二、各模型核心亮点

🦙 LLaMA(Meta)
SwiGLU + RMSNorm + RoPE

SwiGLU  >>   ff前馈连接层替换relu,门控机制增强非线性能力,避免神经元死亡,收敛更快

        非线性特征信息提取能力+++

RMSNorm >> 层归一化前置,只计算方差不计算均值,去掉了bias计算,参数量降一倍

RoPE  >>  绝对位置编码➕相对位置编码,通过在Attention计算中注意旋转矩阵实现
  • 迭代:Llama 1(研究用)→ Llama 2(免费商用)→ Llama 3(405B 超大)
  • 核心改进:SwiGLU + RMSNorm + RoPE
  • 衍生模型:Alpaca、Vicuna、BELLE、Chinese LLaMA
🇨🇳 ChatGLM(清华)
Prefix-Decoder

本质是利用decoder实现 (encoder中双向注意力机制➕MLM机制)➕decoder中单向预测

输入序列Prefix 前缀部分使用双向注意力➕MLM, 预测序列Generation使用单向注意力 

结合Bert双向理解  ➕ GPT 单向生成
  • 特点:中英双语,6B 可在消费级显卡运行
  • 迭代:GLM-130B → ChatGLM-6B → GLM-4(128K 上下文)
  • 技术:Prefix-Decoder(双向注意力)
☁️ Qwen(阿里)
Llama的SwiGLU➕RMSNorm➕RPPE 

Deepseek的MOE混合专家机制Plus版(激活率3.7%)➕量化优化

独创的混合注意力机制
  • 迭代:Qwen1.5(32K)→ Qwen2(128K)→ Qwen2.5(1M 上下文)→ Qwen3(235B MoE)
  • 特色:支持百万 token 上下文,多模态版本 Qwen2.5-VL
🔥 DeepSeek(深度求索)
MLA 多头潜在注意力,利用低秩压缩技术,将模型参数压缩到极致

MOE 混合专家机制,ff前馈连接层整体分为N个专家主导,利用linear层加权求和的方式算出专家的得分logits,利用softmax算出专家的权重比例,topk选择排名靠前的专家进行激活计算,抓重点,专业的事交给专业的部分搞定,大幅节省算力(激活率 5.5%)

FP8  采用FP8精度,量化压缩50%
RLAIF AI强化学习,节省人工标注成本,让模型更懂人性,听人话

        AI标注>>有监督微调>>排序实现奖励模型>>PPO强化学习>>反向促进模型成长

Deepseek Sparse Attention 稀疏注意力机制,抓重点部分做计算,节省半数算力

DSA是通过linear层不断更新参数,不断学习如何筛选更优质的注意力部分
混合专家机制MOE专项理解:

混合专家模式MOE的意义从来不是像MLA或者DSA这样直接的节省参数计算量,反而分配多个专家会导致算力消耗翻倍,但是收益确实指数级增长的,利用低算力的成本,敲动高算力成果



处理层级是ff前馈连接层,假定100个专家,我们给这100个专家均配备标准的ff层用以反向梯度更新参数,重点是我们提前对输入维度经过linear层输出到100个logits(对应100个专家),经过softmax(logtis)得到相应的专家权重分布比例,经过topv可以得到权重靠前的5个专家,我们通过激活靠前的5个专家来更新他们的参数,从而达到用5倍算力撬动100倍算力的杠杆效果,激活率5%



激活专家的方式是通过将专家权重矩阵中不需要计算的专家权重置为0,来规避他们的更新,同时我们引入惩罚系数,强制模型雨露均沾,避免一些专家饿死,让他们都能得到参数的更新,这就是deepseek的负载均衡机制(惩罚系数)

MOE源码剖析

# 共享+路由专家模型 import torch import torch.nn as nn import torch.nn.functional as F # ===================== 专家网络定义 ===================== class Expert(nn.Module): def __init__(self, input_dim, hidden_dim, output_dim): super().__init__() # 第一层全连接层,将输入维度映射到隐藏层维度 self.fc1 = nn.Linear(input_dim, hidden_dim) # 第二层全连接层,将隐藏层映射到输出维度 self.fc2 = nn.Linear(hidden_dim, output_dim) def forward(self, x): # 先经过第一层并激活 x = F.relu(self.fc1(x)) # 再经过第二层输出 return self.fc2(x) # ===================== 路由门控网络定义 ===================== class RoutingGate(nn.Module): def __init__(self, input_dim, num_routed_experts, k=2): super().__init__() # 全连接层输出每个专家的分数 self.fc = nn.Linear(input_dim, num_routed_experts) self.k = k # Top-k,表示每个输入只选择k个专家 def forward(self, x): # logits: [batch, num_routed_experts],每个专家的分数 logits = self.fc(x) # 取Top-k分数及其索引 topk_val, topk_idx = torch.topk(logits, self.k, dim=-1) # 对Top-k分数做softmax,得到归一化权重 weights = F.softmax(topk_val, dim=-1) print("weights:", weights) # 构造与logits同形状的全零权重 routed_weights = torch.zeros_like(logits) # 将Top-k权重填入对应位置,其余为0 routed_weights.scatter_(-1, topk_idx, weights) print("Routed weights:", routed_weights) return routed_weights # [batch, num_routed_experts] # ===================== MoE主结构:包含路由专家和共享专家 ===================== class MoEWithRouting(nn.Module): def __init__( self, input_dim, hidden_dim, output_dim, num_routed_experts, num_shared_experts, k=2, ): super().__init__() # 路由专家列表,每个专家是一个Expert实例 self.routed_experts = nn.ModuleList( [ Expert(input_dim, hidden_dim, output_dim) for _ in range(num_routed_experts) ] ) # 共享专家列表 self.shared_experts = nn.ModuleList( [ Expert(input_dim, hidden_dim, output_dim) for _ in range(num_shared_experts) ] ) # 路由门控网络 self.routing_gate = RoutingGate(input_dim, num_routed_experts, k) # 共享专家的权重参数(可学习),初始均分 self.shared_weights = nn.Parameter( torch.ones(num_shared_experts) / num_shared_experts, requires_grad=True ) def forward(self, x): # ========== 路由专家部分 ========== # 计算每个输入分配到各个路由专家的权重 [batch, num_routed_experts] routed_weights = self.routing_gate(x) print("routed_weights:", routed_weights) # 计算所有路由专家的输出,堆叠成 [batch, output_dim, num_routed_experts] routed_outputs = torch.stack( [expert(x) for expert in self.routed_experts], dim=2 ) print("routed_outputs:", routed_outputs) # 按权重加权求和,得到路由专家的最终输出 [batch, output_dim] routed_result = torch.sum(routed_weights.unsqueeze(1) * routed_outputs, dim=2) print("routed_result:", routed_result) # ========== 共享专家部分 ========== # 计算所有共享专家的输出,堆叠成 [batch, output_dim, num_shared_experts] shared_outputs = torch.stack( [expert(x) for expert in self.shared_experts], dim=2 ) # 对共享专家权重做softmax归一化 [num_shared_experts] shared_weights = F.softmax(self.shared_weights, dim=0) # 按权重加权求和,得到共享专家的最终输出 [batch, output_dim] shared_result = torch.sum( shared_weights.unsqueeze(0).unsqueeze(1) * shared_outputs, dim=2 ) # ========== 融合输出 ========== # 路由专家输出与共享专家输出相加,作为最终输出 output = routed_result + shared_result return output # ===================== 测试代码 ===================== # 定义各参数 input_dim = 10 # 输入特征维度 hidden_dim = 20 # 专家网络隐藏层维度 output_dim = 5 # 输出特征维度 num_routed_experts = 4 # 路由专家数量 num_shared_experts = 2 # 共享专家数量 k = 2 # Top-k,路由门控每次选择的专家数 seq_len = 8 # 输入序列长度(batch size) # 实例化模型 model = MoEWithRouting( input_dim, hidden_dim, output_dim, num_routed_experts, num_shared_experts, k ) # 构造随机输入 x = torch.randn(seq_len, input_dim) # 前向传播 output = model(x) # 打印输出形状和内容 print("Output shape:", output.shape, output) # [seq_len, output_dim] 

数据流转图示

""" ═══════════════════════════════════════════════════════════════════ 输入数据 x 形状: [8, 10] (batch=8, dim=10) ═══════════════════════════════════════════════════════════════════ │ ┌─────────────────┼─────────────────┐ │ │ │ ▼ ▼ ▼ ┌────────┐ ┌────────┐ ┌────────┐ │门控网络│ │路由专家│ │共享专家│ │ │ │ (4个) │ │ (2个) │ └────────┘ └────────┘ └────────┘ │ │ │ ▼ ▼ ▼ ┌────────┐ ┌────────────────────────────┐ │[8,4] │ │ 每个专家内部: │ │(权重) │ │ ┌────────────────────────┐ │ └────────┘ │ │ 输入: [8,10] │ │ │ │ │ ↓ │ │ │ │ │ fc1: Linear(10→20) │ │ │ │ │ ↓ │ │ │ │ │ ReLU │ │ │ │ │ ↓ │ │ │ │ │ fc2: Linear(20→5) │ │ │ │ │ ↓ │ │ │ │ │ 输出: [8,5] │ │ │ │ └────────────────────────┘ │ │ │ │ │ │ 4个专家各自输出: │ │ │ E0: [8,5] │ │ │ E1: [8,5] │ │ │ E2: [8,5] │ │ │ E3: [8,5] │ │ │ ↓ │ │ │ stack(dim=2) │ │ │ ↓ │ │ │ [8,5,4] ←────────────┐ │ │ │ │ │ │ └───────────────────────┼────┘ │ │ ▼ ▼ ┌─────────────────────────────────────────────────┐ │ 路由加权求和: [8,1,4] × [8,5,4] = [8,5,4] │ │ sum(dim=2) → [8,5] │ └─────────────────────────────────────────────────┘ │ ▼ routed_result: [8,5] │ │ ┌────────────────────────────┐ │ │ 共享专家 (2个): │ │ │ 每个专家内部: │ │ │ 输入: [8,10] │ │ │ ↓ │ │ │ fc1: Linear(10→20) │ │ │ ↓ │ │ │ ReLU │ │ │ ↓ │ │ │ fc2: Linear(20→5) │ │ │ ↓ │ │ │ 输出: [8,5] │ │ │ │ │ │ S0: [8,5] │ │ │ S1: [8,5] │ │ │ ↓ │ │ │ stack(dim=2) │ │ │ ↓ │ │ │ [8,5,2] │ │ └────────────────────────────┘ │ │ │ ▼ │ shared_weights: [2] │ │ │ ▼ │ ┌─────────────────────────────┐ │ │ 共享加权求和: │ │ │ [1,1,2] × [8,5,2] = [8,5,2] │ │ │ sum(dim=2) → [8,5] │ │ └─────────────────────────────┘ │ │ │ ▼ │ shared_result: [8,5] │ │ └──────┬───────┘ ▼ ┌─────────────────────────┐ │ 最终输出 = routed + shared │ │ [8,5] + [8,5] = [8,5] │ └─────────────────────────┘ │ ▼ ════════════════════════════ 最终输出: [8, 5] ════════════════════════════ """
  • 核心技术
    • MLA(多头潜在注意力):减少记忆体 30%
    • MoE(混合专家):671B 总参数,仅激活 37B
    • FP8 混合精度训练:省资源、加速
  • 开源协议:MIT(最宽松,可自由商用)

三、硬件配置参考(本地部署)

模型大小推理显存 (FP16)推荐场景
7B10-14 GB中小企业应用
13B20-26 GB企业级应用
32B64-70 GB复杂 NLP 任务
70B140 GB+超大规模任务
304B+600 GB+(需量化)国家/科研级

参数 FP16,两倍打底
推理加三成,全量训练乘六倍
量化降一半,LoRA 省大头, 不训练全部参数,只训练“小插件”(低秩矩阵)

主要就是两个途径,1是通过量化压缩显存 2是通过低秩矩阵转换,减少参数量级(lora)


四、开源协议速查

协议特点代表模型
MIT最宽松,可自由商用DeepSeek
Apache 2.0含专利授权Qwen、Grok-1
Llama 协议月活超 7 亿需单独授权LLaMA 系列
MCP模型上下文协议(Anthropic)标准化 AI 工具调用

五、一句话总结

LLaMA 是开源先驱

ChatGLM 中文友好

Qwen 长上下文最强

DeepSeek 架构最创新且协议最宽松。

Read more

国产AI双雄对决:智谱GLM-5与MiniMax M2.5

国产AI双雄对决:智谱GLM-5与MiniMax M2.5

导读:2026年2月,中国AI领域迎来里程碑时刻——智谱GLM-5与MiniMax M2.5两大开源旗舰模型几乎同期发布。它们都瞄准了"Agentic Engineering"这一前沿方向,却在技术路线和能力侧重上形成了鲜明对比。本文将从技术架构、核心能力、实际案例等多个维度,为你深度解析这两款国产大模型的优劣与适用场景。 一、模型概览与核心定位 1.1 智谱GLM-5:开源Agent任务的王者 发布时间:2026年2月11日 开源协议:MIT License 总参数量:744B(激活参数40B) 训练数据:28.5万亿tokens 上下文窗口:200K GLM-5是智谱AI推出的最新一代大模型,定位是"当下顶尖的Coding模型"。在全球权威榜单Artificial Analysis上,GLM-5位列全球第四、开源第一。 核心突破: * Agentic Engineering能力:不仅能写代码,更能处理复杂系统工程与长程Agent任务

ToDesk ToClaw AI自动化实测:零门槛玩转日常自动化,告别折腾与硬件损耗

ToDesk ToClaw AI自动化实测:零门槛玩转日常自动化,告别折腾与硬件损耗

前言:原来日常自动化,不用折腾也能落地 平时总被重复繁琐的小事占用时间,想着靠自动化工具解放双手,今年专门试了多款主流方案,想搞定每日资讯整理、桌面归类、文件备份这类高频需求,结果踩坑不断,始终没找到适配日常使用的省心选项。 最开始尝试Python本地脚本,能实现基础功能,但必须让设备全程在线,先不说麻烦,关键是台式机24小时不间断开机,对硬件损耗极大,长期用很容易缩短电脑使用寿命,还容易出现系统卡顿、缓存过高导致任务断更的问题;后来转战云函数计算,部署流程极其繁琐,要懂基础运维知识,耗时很久才配置完成,每月还有固定服务成本,一旦目标网站页面微调,代码就失效,还要重新调试维护;跟风试过原生OpenClaw,功能虽强但门槛太高,光安装环境、配置依赖就折腾许久,没有相关技术基础很难顺畅落地,操作门槛偏高,即便是有一定基础的我,初期也花了不少时间磨合。 直到更新了新版ToDesk,发现内置的ToClaw AI自动化功能,才彻底解决了这些痛点,不用复杂部署、不用写代码,还能避开电脑长时间开机的损耗,不仅完美适配我的日常使用需求,更兼顾了易用性,上手毫无压力。 我用它快速搭建了三个日常高

龙虾(OpenClaw)搭配本地千问模型(零token成本)实现电脑AI助理

龙虾(OpenClaw)搭配本地千问模型(零token成本)实现电脑AI助理

前言:现在AI助手遍地都是,但要么是云端服务要花token钱,要么是功能单一只能聊天,想找一个“不花钱、能干活、保隐私”的电脑AI助理,简直比登天!直到我发现了一个神仙组合——龙虾AI(OpenClaw)+ 本地千问模型,完美解决所有痛点:零token成本、全程本地运行、能接管电脑干活,无论是办公摸鱼还是高效产出,都能轻松拿捏。 本文是纯新手向原创实操教程,全程手把手,从工具认知、环境准备,到龙虾与本地千问的联动配置,再到实战场景演示,每一步都标清重点、避开坑点,不用懂复杂代码,不用花一分钱,普通人跟着走,10分钟就能拥有专属本地AI电脑助理,从此告别云端token焦虑和隐私泄露风险! 一、先搞懂:为什么是“龙虾+本地千问”?核心优势碾压同类组合 在开始操作前,先跟大家说清楚两个核心工具的作用,以及为什么它们搭配起来是“王炸”——毕竟市面上AI工具那么多,选对组合才能少走弯路,真正实现“零成本、高效率”。 1. 两个核心工具,

依托 Amazon Bedrock 生成式 AI 能力,结合 Slack 生态与亚马逊云科技服务构建企业级图像生成 App 的全流程解析

依托 Amazon Bedrock 生成式 AI 能力,结合 Slack 生态与亚马逊云科技服务构建企业级图像生成 App 的全流程解析

依托 Amazon Bedrock 生成式 AI 能力,结合 Slack 生态与亚马逊云科技服务构建企业级图像生成 App 的全流程解析 前言 生成式 AI 技术加速渗透企业业务的当下,Slack 作为主流协作平台,与亚马逊云科技结合成为企业高效落地 AI 应用的重要方向。本文以 “企业级 Slack 图像生成助手 App” 为实践载体,聚焦 Amazon Bedrock 的生成式 AI 能力,从平台特性解析、架构方案设计,到全流程部署实操展开阐述,为企业快速搭建安全、高效、可扩展的 AI 驱动型协作应用提供清晰指引。 全新免费套餐(Free Tier 2.0) 亚马逊云科技 Free Tier 2.0