一文带大家理解各种AI大模型收费指标tokens到底是什么东东

一文带大家理解各种AI大模型收费指标tokens到底是什么东东

Token收费举例

大家在使用各个模型的过程中,一定会关注到,各个模型都是按照使用的tokens进行收费的,例如:

1. 推理输入:0.6 元 / 百万 tokens

  • 含义:你向大模型提问、上传文档、粘贴上下文等 “给模型看的内容”,每消耗 100 万个 tokens,收费 0.6 元。
  • 通俗例子:你发了一段 1000 字的文章给模型,大约 ≈ 1300 tokens(按 1 字≈1.3 token 粗算)。费用 ≈ 0.6 元 / 1,000,000 × 1,300 ≈ 0.00078 元,几乎可以忽略不计。

2. 推理输出:3.6 元 / 百万 tokens

  • 含义:模型生成的回答、代码、文案等 “给你的内容”,每消耗 100 万个 tokens,收费 3.6 元。
  • 通俗例子:模型给你写了一篇 1000 字的回答,同样约 1300 tokens。费用 ≈ 3.6 / 1,000,000 × 1,300 ≈ 0.00468 元,比输入贵一些。

Token 到底是什么?

Token 是大语言模型(LLM)处理文本的最小单位,可以理解为模型 “读” 和 “写” 的 “单词 / 字符 / 子词”。它不是一个单一的技术点,而是一套贯穿模型训练、推理和部署的核心机制。

1. 本质:文本的 “数字化编码”

  • Token 是模型将人类可读的文本(中文、英文、数字、符号等)切分并编码后得到的数字 ID。
  • 模型不直接处理 “汉字” 或 “字母”,而是处理这些数字 ID。
  • 切分规则由模型的 ** 分词器(Tokenizer)** 决定,不同模型(如 GPT、Doubao、Claude)的分词规则略有差异。

2. 常见的 Token 类型

  • 英文 / 拉丁语言:通常是子词(Subword),例如 unhappiness 会被切分为 un, happiness
  • 中文:通常是单字或双字词,例如 “我爱中国” 可能被切分为 , , , 我爱, 中国
  • 特殊符号:空格、标点、换行符等也会被编码为独立的 Token。

3. 一个直观的例子

以 Doubao/OpenAI 的分词器为例:

  • 输入文本:Hello, 我是豆包,一个AI助手。
  • 分词结果(Token):Hello, ,, , , , , , , , AI, , ,
  • 每个 Token 对应一个唯一的数字 ID,例如 Hello154961770

Token 对应的核心技术点

1. 分词器(Tokenizer):文本到 Token 的桥梁

  • 技术角色:负责将输入文本切分为 Token,并将 Token 映射为模型可处理的数字 ID。
  • 关键技术:
    • BPE(Byte Pair Encoding):最主流的分词算法,通过统计语料中高频出现的字符组合,逐步合并为子词,平衡词汇表大小和分词效率。
    • Unigram 模型:从一个大的初始词汇表中,通过概率模型逐步移除低频 Token,优化分词效果。
    • 字节级分词:直接对 UTF-8 字节进行编码,避免处理生僻字或 emoji 时出现 “未知 Token” 的问题。
  • 技术意义:分词器的质量直接影响模型对文本的理解能力。好的分词器能准确切分专业术语、方言词汇,避免语义丢失。

2. 嵌入层(Embedding Layer):Token 到向量的转换

  • 技术角色:将每个 Token 的数字 ID 转换为一个高维向量(Embedding),这个向量包含了 Token 的语义信息。
  • 关键技术:
    • 词嵌入(Word Embedding):通过训练学习到的向量,例如 的向量在空间中距离较近,因为它们都是动物。
    • 位置编码(Positional Encoding):Transformer 模型本身不具备时序感知能力,位置编码会为每个 Token 添加位置信息,让模型知道 “我” 在 “爱” 之前。
  • 技术意义:嵌入层是模型理解文本语义的第一步,高质量的嵌入能让模型更好地捕捉文本中的上下文关系。

3. 上下文窗口(Context Window):Token 的 “记忆容量”

  • 技术角色:模型在一次推理中能处理的最大 Token 数量,包括输入和输出。
  • 关键技术:
    • 注意力机制(Attention Mechanism):Transformer 模型的核心,通过计算 Token 之间的注意力权重,让模型关注文本中的关键信息。注意力机制的计算复杂度是 O (n²),n 是 Token 数量,因此上下文窗口越大,计算成本越高。
    • 滑动窗口(Sliding Window):为了突破上下文窗口的限制,一些模型会采用滑动窗口技术,只关注当前窗口内的 Token。
    • KV 缓存(KV Cache):在多轮对话中,模型会缓存之前的 Key 和 Value 向量,避免重复计算,提高推理效率。
  • 技术意义:上下文窗口决定了模型能 “记住” 多少信息。256k 的上下文窗口意味着模型可以处理长达 19 万字的文本,这对于长文档理解、代码生成等场景至关重要。

4. 推理成本(Cost):Token 的 “经济价值”

  • 技术角色:Token 是计算和存储成本的基本单位。
  • 关键技术:
    • 计算成本:每个 Token 都需要经过多层 Transformer 块的计算,Token 数量越多,计算时间越长,GPU 资源消耗越大。
    • 存储成本:KV 缓存需要存储之前的 Key 和 Value 向量,Token 数量越多,占用的显存越大。
    • 缓存命中(Cache Hit):如果输入 Token 序列与之前的请求高度相似,模型可以直接复用之前的计算结果,大幅降低成本。
  • 技术意义:Token 数量直接决定了模型的使用成本。优化 Token 数量(例如使用更高效的分词器、压缩文本)是降低大模型部署成本的关键。

Token 技术栈的完整流程

  1. 文本输入:用户输入 Hello, 我是豆包。
  2. 分词:Tokenizer 将文本切分为 Hello, ,, , , , , ,并映射为数字 ID。
  3. 嵌入:嵌入层将数字 ID 转换为高维向量,并添加位置编码。
  4. 推理:Transformer 模型通过注意力机制处理这些向量,生成新的 Token 序列。
  5. 解码:Tokenizer 将生成的 Token 序列转换回人类可读的文本。
  6. 计费:根据输入和输出的 Token 数量,计算使用成本。

总结:Token 为什么重要?

  • 它是模型的 “语言”:模型通过 Token 来理解和生成文本。
  • 它是成本的 “标尺”:Token 数量直接决定了模型的计算和存储成本。
  • 它是能力的 “边界”:上下文窗口的大小决定了模型能处理的文本长度和复杂程度。

Read more

机器人操作VLA模型的强化学习:综述

机器人操作VLA模型的强化学习:综述

25年12月来自新加坡南洋理工、北邮和清华的论文“A Survey on Reinforcement Learning of Vision-Language-Action Models for Robotic Manipulation”。 构建能够执行各种操作任务的通用机器人系统的愿景已通过视觉-语言-动作模型(VLA)得到显著推进。VLA利用大规模预训练,通过模仿学习获取通用的视觉运动先验知识。然而,目前的预训练VLA仍需微调才能适应实际部署,因为传统的模仿学习由于依赖于状态和动作覆盖范围有限的已收集数据集,难以实现分布外(OOD)泛化。强化学习(RL)利用自探索和结果驱动优化来增强VLA的OOD泛化能力。本文概述RL如何弥合预训练和实际部署之间的差距,并全面介绍RL-VLA的训练范式。分类体系围绕四个核心维度展开,反映从学习到部署的完整生命周期:RL-VLA架构、训练范式、实际部署以及基准测试和评估。首先,介绍RL-VLA组件的关键设计原则,包括动作、奖励和转换建模。其次,回顾在线、离线和测试时RL范式,分析它们在提升VLA泛化能力方面的有效性和挑战。第三,考察实际部署框架,从仿

OpenClaw爆火倒逼低代码AI变革:从工具赋能到生态重构

OpenClaw爆火倒逼低代码AI变革:从工具赋能到生态重构

2026年开春,科技圈最大的现象级事件,莫过于OpenClaw的“封神式”爆发。这个诞生仅4个月、GitHub星标突破28万、超越Linux内核登顶全球开源榜单的AI工具,以“AI智能体执行网关”的定位,打破了传统AI“只聊天不干活”的困局,用“自然语言指令→自动执行”的全闭环,让“一个人+AI=一个团队”从梦想照进现实。         当全网都在跟风“养龙虾”(网友对部署OpenClaw的趣味戏称),讨论其如何自动化处理办公、开发、运维等重复性工作时,深耕低代码领域的从业者们更敏锐地捕捉到一个信号:OpenClaw的爆火,本质是AI从“对话层”向“执行层”跨越的标志,而这恰恰是低代码AI长期以来的核心痛点。低代码作为“普惠开发”的核心载体,与AI的深度融合早已是行业共识,但如何让AI从“辅助配置”升级为“主动执行”,让低代码平台真正实现“零代码开发、全流程自动化”,始终没有明确的行业路径。         OpenClaw的出现,

FPGA加速图像处理:核心算法全解析

FPGA加速图像处理:核心算法全解析

FPGA(现场可编程门阵列)在图像处理领域因其并行处理能力、低延迟、高能效和可定制化 的特点而极具优势,特别适合于实时性要求高、算法固定、功耗受限 的应用场景。 以下是FPGA上常实现的主流图像处理算法,按处理流程和类别划分: 一、底层图像预处理(像素级操作) 这类算法高度并行,非常适合FPGA。 1. 色彩空间转换 * RGB转灰度:Y = 0.299R + 0.587G + 0.114B,可通过移位和加法实现,无需乘法器。 * RGB与YCbCr互转:视频压缩(如JPEG, H.264)中的关键步骤,FPGA可以并行计算三个分量。 2. 几何变换 * 旋转、缩放、平移:需要插值算法(如双线性插值、最邻近插值)。FPGA可以并行计算多个输出像素的坐标和插值。 3. 图像校正 * 镜头畸变校正:通过查找表(LUT)

Coze(扣子)全解析:100个落地用途+发布使用指南,小白也能玩转低代码AI智能体

Coze(扣子)全解析:100个落地用途+发布使用指南,小白也能玩转低代码AI智能体

摘要:Coze(扣子)作为字节跳动推出的低代码AI智能体平台,凭借零代码/低代码拖拽式操作、丰富的插件生态和多平台发布能力,成为小白和职场人高效落地AI应用的首选工具。本文全面汇总Coze可实现的100个实用场景,覆盖个人、学习、办公、运营等7大领域,同时详细拆解其生成形态、发布流程和使用方法,帮你快速上手,把AI能力转化为实际生产力,无需专业开发经验也能轻松搭建专属AI应用。 前言 在AI普及的当下,很多人想借助AI提升效率、解决实际问题,但苦于没有编程基础,无法开发专属AI工具。而Coze(扣子)的出现,彻底打破了这一壁垒——它是字节跳动自主研发的低代码AI智能体平台,无需复杂编码,通过拖拽组件、配置插件、编写简单提示词,就能快速搭建聊天Bot、工作流、知识库等AI应用,并且支持多渠道发布,让你的AI工具随时随地可用。 本文将分为两大核心部分:第一部分汇总Coze可落地的100个实用场景,帮你打开思路,找到适配自己需求的用法;第二部分详细讲解Coze生成的应用形态、发布流程和使用技巧,让你搭建完成后快速落地使用,真正实现“零代码上手,高效用AI”。 第一部分:Coze