作者:高恒(中国科技新闻学会科幻传播与未来产业专委会会员专家)

3月16日,阿里巴巴内部宣布成立 Alibaba Token Hub(ATH)事业群,由阿里巴巴CEO吴泳铭直接负责。新事业群整合了通义实验室、MaaS业务线、千问事业部、悟空事业部以及AI创新事业部,并提出一个核心目标:围绕 “创造Token、输送Token、应用Token”,重新搭建阿里的AI业务体系。

在移动互联网时代,平台竞争的核心是流量入口。但在大模型时代,越来越多公司开始意识到,真正决定AI商业规模的,不只是模型参数和技术指标,而是 Token的生产与消耗能力。

在笔者看来,阿里这次成立ATH,看起来是一次AI部门整合,本质上却是在重构一条新的AI生产体系:从模型研发到平台分发,再到应用落地,让Token在体系中不断生成、流动和消耗。随着AI Agent开始进入真实业务流程,这种围绕Token运转的体系,很可能会成为AI时代新的基础设施。

01:AI竞争正在从“模型能力”变成“Token消耗”

在大模型体系中,Token是模型处理信息的最小单位。用户输入的文字、模型生成的内容,本质上都会被拆分成Token进行计算。

行业里有一个比较通行的估算方式:1个汉字≈1个Token。

无论是API调用价格、模型推理成本,还是算力消耗,大多数AI产品几乎都以Token作为计量单位。换句话说,大模型表面上在比拼参数规模、模型能力和技术指标,但真正落到商业层面,决定收入规模的往往只有一个指标,Token消耗量。

原因很简单:每一次模型调用、每一次内容生成、每一次推理计算,都会消耗Token。调用次数越多,Token消耗越大,对应的算力需求和商业收入也就越高。

过去一年,这个需求正在明显加速。

在阿里内部,春节期间推出的Coding Plan Tokens,一度成为阿里云历史上销量增长最快的产品之一。由于购买需求过于集中,原本设计的“首购优惠”在上线两周后就被迫停止。这一现象在一定程度上反映出,企业和开发者对AI算力和模型调用的需求正在迅速上升。

更大的变化来自AI Agent。

随着大模型能力不断提升,越来越多AI应用不再只是回答问题,而是开始直接执行任务,比如写代码、整理文档、处理客服咨询,甚至自动完成部分业务流程。业内普遍把这种能够自主执行任务的系统称为AI Agent。

吴泳铭在此次内部信中直言:大量数字化工作将由数以百亿计的AI Agent来支撑,而这些AI Agent将由模型产生的Token支撑运行,成为人类与数字世界交互的主要载体。

如果这一趋势成立,AI行业的商业逻辑也会随之发生变化。

过去,大模型公司的竞争重点是模型能力,比如参数规模、训练数据和评测成绩。但随着应用规模不断扩大,真正决定商业规模的,将是模型被调用多少次、消耗多少Token。

知名科技产业时评人彭德宇与笔者交流分析指出,从这个角度看,Token不再只是一个技术指标,而会逐渐变成AI时代的基础生产要素。就像云计算时代的算力、电力时代的能源一样,谁能够生产更多Token、分发更多Token、消耗更多Token,谁就更有可能在AI产业中占据优势。

也正因为如此,阿里把新事业群命名为Alibaba Token Hub。

这个名字本身已经说明了公司的判断:在AI时代,真正重要的不只是模型,而是围绕Token形成的一整套生产和分发体系。Token,很可能会成为AI产业里的“水电煤”。

02:ATH本质是一条“AI生产力供应链”

围绕Token这个核心概念,阿里重新设计了自己的AI组织结构。新成立的 Alibaba Token Hub(ATH)事业群,整合了阿里内部几乎所有关键的AI能力,形成了一套新的业务体系。

从内部信介绍来看:ATH目前由五个核心部门组成:通义实验室:(Qwen大模型的整体研发工作)创造领先的多模态模型,不断追求基础模型能力上限,为集团和业界提供最领先模型;MaaS业务线:(由MaaS升级而成)构建高效开放的模型服务平台和技术体系,支撑全行业AI生态;千问事业部:打造最好的个人AI助手;悟空事业部:(将是钉钉未来最重要的业务)打造B端AI原生工作平台,将模型能力深度融入企业工作流;AI创新事业部:探索各类AI创新应用,快速验证新模式、新市场。

从表面看,这只是一次部门整合。但如果从产业链的角度来看,阿里实际上是在搭建一条完整的AI生产体系。

这套体系可以拆成三个环节。

第一步,是创造Token。

这一环节主要由通义实验室负责。通义实验室承担Qwen系列大模型的研发工作,包括多模态模型能力的持续升级。模型能力越强,能够生成和处理的Token规模就越大,也就决定了整个AI体系的技术上限。换句话说,通义实验室就是整条体系的源头。

第二步,是输送Token。

这一部分主要由MaaS业务线承担。MaaS本质上是阿里面向企业和开发者提供的大模型服务平台。通过API接口、开发工具和平台服务,它把Qwen模型能力开放给企业客户。企业可以在这个平台上快速开发AI应用,而模型能力也通过平台被分发到不同的行业场景中。

第三步,是应用Token。

应用层主要包括千问、悟空以及AI创新事业部。这些产品是真正面向用户的AI应用,也是Token被大量消耗的地方。其中,千问事业部主要面向C端用户,目标是打造个人AI助手,通过聊天、搜索、创作等功能积累用户规模。

而悟空事业部则更偏向企业市场,其定位是B端AI原生工作平台,核心任务是把模型能力嵌入企业办公系统和业务流程中,让AI可以直接参与企业日常工作。

如果用一个更直观的比喻来理解这套体系:通义实验室像是“发电厂”,负责生产能源;MaaS平台像是“电网”,负责把能源输送到各个地方;千问和悟空则像是“用电设备”,把这些能源转化为具体的应用场景。

而在这套系统中流动的“能源”,就是 Token。

通过这样的结构,阿里把原本分散在不同部门的大模型研发、平台能力和应用产品重新串联起来,形成一条从技术源头到应用落地的完整链条。

某种程度上,这也是阿里第一次用一种更接近工业体系的方式来组织AI业务,不再只是单独做模型或做产品,而是围绕Token构建一整条可以持续运转的生产和分发体系。

03:这次调整真正要解决的是“AI太分散”

如果只看技术实力,阿里在国内大模型行业一直处于第一梯队。

过去两年,Qwen系列模型在开源社区持续保持较高热度。在HuggingFace等平台上,Qwen模型长期位列下载榜前列,在多个评测基准中也能够对标甚至超过部分同规模的海外模型。这意味着,在基础模型能力上,阿里并不缺技术积累。

但问题并不在技术,而在组织结构。

过去几年,阿里的AI能力实际上分散在多个体系之中。例如:通义实验室负责大模型研发;阿里云负责算力和模型服务平台;钉钉探索企业级AI应用;淘天等业务线也在各自开发AI工具。

这些团队分别推进产品和技术,在AI刚爆发的阶段,这种模式并不是坏事。多条技术路线同时探索,可以帮助公司更快找到潜在机会。

但随着AI竞争不断升级,这种分散模式的问题也逐渐显现。

对内来看,分散意味着资源容易重复投入。不同团队可能在同一个问题上反复开发类似功能,协同成本也不断增加。

对外来看,产品认知则变得越来越模糊。

如果用户被问到“你用什么AI”,很多人会直接回答:豆包、Kimi或者DeepSeek。但如果说到阿里的AI,情况往往会变得复杂。

是通义千问?还是千问App?还是夸克里的AI助手?

同一家公司、同一套技术,却出现多种不同的产品形态,对普通用户来说很难形成清晰认知。

随着行业进入新的阶段,这种问题开始变得更加明显。

过去,大模型行业主要处于技术探索阶段,公司更关注模型能力,比如参数规模、训练数据和评测成绩。但随着算力投入持续增加,大模型研发成本不断提高,AI竞争也逐渐从单纯的技术竞争,变成 算力、数据和应用规模的综合竞争。

在这样的环境下,资源过于分散就意味着效率下降,也意味着战略资源难以集中。

类似的问题,其实谷歌也曾遇到。

2023年,谷歌将 Google Brain与 DeepMind合并为新的Google DeepMind,核心目的就是减少内部资源分散,让研究、产品和技术路线形成更加统一的方向。

阿里这次成立ATH,从逻辑上看也有类似考虑。

通过新的事业群结构,原本分散在不同部门的大模型研发、云平台能力和应用产品被重新整合进同一个体系,并由集团CEO直接负责。这种方式可以减少跨部门协同成本,让资源配置更加集中。

彭德宇指出:换句话说,阿里不再只是同时推进多个AI产品,而是试图把这些能力重新组织起来,形成一套从模型研发、平台分发到应用落地的完整体系。

所以笔者认为:从这个角度看,ATH不仅是一次组织架构调整,也代表着阿里在AI时代的一次战略转向:ATH将模型研发、平台能力和应用产品串联成闭环,让Token在体系内流动、被消耗。

子弹已经装进枪里,接下来真正考验的,是:API调用量、用户规模和企业落地速度。在AI时代,Token就是驱动整套系统的“电力”,谁掌握Token流动,谁就掌握未来竞争主动权。