人工智能大模型技术白皮书
应用场景
大模型技术具有广泛的应用场景,可以用来赋能不同行业。
- 大模型 + 传媒:实现智能新闻写作,降低新闻的生产成本。
- 大模型 + 影视:拓宽创作素材,开拓创作思路,激发创作灵感,提升作品质量。
- 大模型 + 营销:打造虚拟客服,助力产品营销。
- 大模型 + 娱乐:加强人机互动,激发用户参与热情,增加互动的趣味性和娱乐性。
- 大模型 + 军事:增强军事情报和决策能力,可以实现实时战场翻译,快速准确的威胁评估、作战任务规划和执行、战场感知、战术决策支持、改进态势感知等。
- 大模型 + 教育:赋予教育教材新活力,让教育方式更个性化、更智能。
- 大模型 + 金融:帮助金融机构降本增效,让金融服务更有温度。
- 大模型 + 医疗:赋能医疗机构诊疗全过程。
总之,大模型的发展将给人类带来了非常强大的助推力,让数字世界和现实世界的共生变得更为便捷、更为有效。

大模型的通用性使其被认为是可以成为未来人工智能应用中的关键基础设施,就像 PC 时代的操作系统一样,赋能百业,加速推进国民经济的高质量发展。向上,大模型可带动上游软硬件计算平台的革新,形成高性能软硬件与大模型的协同发展,构建'大模型 + 软硬件 + 数据资源'上游发展生态;向下,大模型可以打造'大模型 + 应用场景'的下游应用生态,加速全产业的智能升级,对经济、社会和安全等领域的智能化升级中形成关键支撑。
发展历程
2006 年 Geoffrey Hinton 提出通过逐层无监督预训练的方式来缓解由于梯度消失而导致的深层网络难以训练的问题,为神经网络的有效学习提供了重要的优化途径。此后,深度学习在计算机视觉、语音、自然语言处理等众多领域取得了突破性的研究进展,开启了新一轮深度学习的发展浪潮。总结过去十多年的技术发展,基于深度学习的人工智能技术主要经历了如下的研究范式转变:从早期的'标注数据监督学习'的任务特定模型,到'无标注数据预训练 + 标注数据微调'的预训练模型,再到如今的'大规模无标注数据预训练 + 指令微调 + 人类对齐'的大模型,经历了从小数据到大数据,从小模型到大模型,从专用到通用的发展历程,人工智能技术正逐步进入大模型时代。
2022 年底,由 OpenAI 发布的语言大模型 ChatGPT 引发了社会的广泛关注。在'大模型 + 大数据 + 大算力'的加持下,ChatGPT 能够通过自然语言交互完成多种任务,具备了多场景、多用途、跨学科的任务处理能力。以 ChatGPT 为代表的大模型技术可以在经济、法律、社会等众多领域发挥重要作用。大模型被认为很可能像 PC 时代的操作系统一样,成为未来人工智能领域的关键基础设施,引发了大模型的发展热潮。
本次大模型热潮主要由语言大模型(亦称为大语言模型)引领。语言大模型通过在海量无标注数据上进行大规模预训练,能够学习到大量的语言知识与世界知识,并且通过指令微调、人类对齐等关键技术拥有面向多任务的通用求解能力。在原理上,语言大模型旨在构建面向文本序列的概率生成模型,其发展过程主要经历了四个主要阶段:
1. 统计语言模型
统计语言模型主要基于马尔可夫假设建模文本序列的生成概率。特别地,N-gram 语言模型认为下一个词汇的生成概率只依赖于前面出现的 N 个词汇(即 N 阶马尔可夫假设)。此类语言模型的问题在于容易受到数据稀疏问题的影响,需要使用平滑策略改进概率分布的估计,对于文本序列的建模能力较弱。
2. 神经语言模型
针对统计语言模型存在的问题,神经语言模型主要通过神经网络(MLP、RNN)建模目标词汇与上下文词汇的语义共现关系,能够有效捕获复杂的语义依赖关系,更为精准建模词汇的生成概率。进一步,word2vec 简化了神经语言模型的网络架构,可以从无监督语料中学习可迁移的词表示(又称为词向量或词嵌入),为后续预训练语言模型的研究奠定了基础。
3. 预训练语言模型
预训练语言模型主要是基于'预训练 + 微调'的学习范式构建,首先通过自监督学习任务从无标注文本中学习可迁移的模型参数,进而通过有监督微调适配下游任务。早期的代表性预训练语言模型包括 ELMo、GPT-1 和 BERT 等。其中,ELMo 模型基于传统的循环神经网络(LSTM)构建,存在长距离序列建模能力弱的问题;随着 Transformer 的提出,神经网络序列建模能力得到了显著的提升,GPT-1 和 BERT 都是基于 Transformer 架构构建的,可通过微调学习解决大部分的自然语言处理任务。




























































































































