豆包大模型日均词元调用量破120万亿 AI从“拼参数”转向“拼用量”
2026-04-04 03:04      作者: 李静     来源:中国经营网

中经记者 李静 武汉报道

“截至今年3月,豆包大模型的日均Token(词元)使用量已超过120万亿。在短短三个月里,这个数字翻了一倍;而相比两年前刚发布时,更是实现了1000倍的高速增长。” 近日,在武汉举行的火山引擎AI创新巡展上,火山引擎总裁谭待以一组数据,为当下AI产业的狂飙突进提供了最直观的量化注脚。

在“Token”已成为智能时代可交易、可计量价值单元的共识下,这不仅是火山引擎自身业务的里程碑,更被视为衡量整个产业应用深度的“电表”。

近期随着“龙虾(OpenClaw)”爆火,导致Token使用量激增,不少云厂商已经陆续上调大模型使用价格。面对行业颇受关注的成本、定价疑虑,谭待在接受《中国经营报》等媒体采访时直言:“看Token价格,要结合模型的能力,企业真正关注的是端到端完成事情的整体成本,而非单Token成本。”

这显然也预示着,大模型正逐渐从技术参数竞赛,转向商业价值与综合效能深度较量的新阶段。

Token量激增背后

Token是大模型处理信息的最小单元,也是智能时代的结算单位。

在AI产业的早期,参数规模曾是衡量技术实力的核心指标,但随着技术的普及,Token调用量已逐渐成为衡量大模型实际价值和商业化落地的核心指标。

2024年5月豆包大模型首次对外推出时,其日均调用量尚处于起步阶段,只有1000多亿;而到了2026年3月,这一数字已飙升至120万亿,实现了1000倍的增长。

这种爆发式的增长并非偶然,而是由应用场景的深度变革驱动的。回顾过去两年,豆包大模型的Token消耗经历了三个明显的阶段。

在2024年,Token的消耗主要以搜索、数据处理等研究类场景为主,解锁了对话类AI助手,此时Token消耗相对较低。

从2024年到2025年上半年,随着文本模型的成熟,互动娱乐、客服销售、教育等场景开始释放需求,Token的调用量稳步提升。

从2025年下半年至今,尤其是最近三个月,Token的调用量出现了更惊人的翻倍增长。

谭待指出,最近这一轮Token使用量的激增,背后有两大核心驱动力。“一是多模态创作的发展,Seedance 2.0、Seedream 5.0 lite等模型的推出,让与视频创作相关的Token消耗大幅增长;二是龙虾(智能体)及类龙虾产品的普及,让大家在个人生产力提升、复杂任务处理上的AI使用需求增加。”

例如,视频生成单次Query(提问)的Token消耗就远超文本,生成一个1分钟720P的视频,Token消耗在百万以上。而以OpenClaw为代表的智能体框架,其Token调用量与工具调用轮次成正比,几十上百轮的工具调用往往能够消耗数几十万Token。

值得注意的是,如今Token使用量的增长正在从C端的尝鲜向B端的生产环境迁移。数据显示,目前Token消耗最大的场景集中在非结构化信息的处理与分析上,如金融投研、教育辅导、内容创作等。

“这些场景对模型的要求不再是简单的能聊天,而是能干活。”谭待说道,“就类似工业时代看工业用电量一样。AI时代,Token使用量是衡量企业AI转型进展的最重要的指标。”

火山引擎披露,其平台上累计万亿Token消耗的企业数量,已从2025年年底的100家增至当前的140家,覆盖互联网、教育、金融、消费电子等领域,其中互联网行业占比超50%。

谭待表示:“Token增长不是简单的数字攀升,而是AI真正成为生产力的证明,只有被真实调用,模型才能持续迭代、创造价值。”

商业化破局

随着Token调用量爆发,定价与成本成为行业焦点。当前部分头部云厂商上调API价格,市场对“AI用不起”的担忧在加剧。

面对部分云厂商的涨价潮,谭待表示:“模型智力水平提升自然会涨价,也能创造更大价值。”他以Seedance 2.0为例,虽然单价可能高于旧版本,但因其效果更好、生成效率更高,实际上为客户节省了整体成本。

他进一步解释道,行业对Token成本的焦虑,本质是无效消耗过多,因为目前的龙虾类Agent在完成任务时需要大量试错,导致半数以上Token浪费,他预测未来通过优化Skill、记忆机制、任务路径,可大幅降低无效消耗。

为破解目前行业面临的Token使用成本难题,火山引擎提出了“敏态+稳态”双模式。其中敏态以ArkClaw为代表,支持员工自由探索AI应用,适配创新场景;稳态以HiAgent为核心,可以将成熟方案流程化、标准化,管控成本与风险。

例如企业员工用ArkClaw探索出高效客服流程后,可通过HiAgent固化为标准化Skill,批量部署并优化Token消耗,实现创新与效率的兼顾。此外,火山引擎还开源了OpenViking上下文数据库,可以让Agent任务完成率提升43%—49%,Token成本降低83%—91%,进一步优化投入产出比。

火山引擎的这一思路或许能够在一定程度上缓解智能体与复杂任务带来的高Token消耗问题,但能否在大规模商业化中持续有效,仍需要时间的验证。

谭待则进一步指出,在AI时代,企业真正关注的不应是单Token成本,而是端到端完成事情的整体成本。“若单Token成本低,但用较差的模型需要消耗10倍甚至20倍Token还做不出结果,只会造成浪费。”他预测,随着软硬件优化的推进,结合模型智力水平的提升,单Token的实际价值成本是在下降的。

从产业端来看,随着Seedance 2.0对B端用户开启公测,以及ArkClaw落地,正在推动MaaS从通用服务走向垂直场景。

其中,短剧、广告、教育、电商等行业已形成规模化案例:3—5人团队一周可完成短剧制作并快速回本;广告团队实现千人千面广告生成;教育行业将优质素材快速视频化,AI真正转化为营收增长杠杆。

火山引擎大模型解决方案负责人张天劼表示:“2026年AI不再是企业成本,而是撬动生产力的核心杠杆,Token用量就是最好的证明。”

从模型部署来看,大模型使用方式从最重到最轻可以分为四种方式:自建机房部署模型、公有云的私有化部署模型、模型推理代工、模型云端API调用(MaaS)。

谭待在采访中直言:“我认为AI私有化是行不通的。”他解释道,AI技术迭代太快,私有化部署容易导致技术过期,且难以获得最新的模型能力。相比之下,公有云MaaS模式能让企业以最低成本享受最先进的AI红利。

从行业阶段来看,谭待认为,当前AI行业仍处于早期发展阶段,整体商业化仍在探索中。“过去行业聚焦模型参数、技术概念,如今转向真实调用与场景落地,MaaS成为主流厂商的共同方向。随着企业对模型实用性要求提升,能够稳定完成任务、控制成本、保障安全合规的服务,更易获得市场认可。”