代理AI兴起后,为什么CPU在AI数据中心中的重要性正在重新提升?
过去几年,人工智能基础设施的核心逻辑非常简单——GPU几乎主导了一切。
过去几年,人工智能基础设施的核心逻辑非常简单——GPU几乎主导了一切。因为大模型训练和推理需要大量并行计算,而GPU在这种任务上效率极高,因此数据中心投资几乎都围绕GPU展开。
但随着AI应用形态发生变化,算力结构也开始出现新的趋势。尤其是“代理AI”(Agentic AI)的出现,让CPU的重要性再次被市场重视。
代理AI与传统AI最大的不同,在于它不仅仅是生成内容,而是能够执行复杂任务流程。例如自动检索资料、调用外部系统、处理多步骤任务、协调多个工具等。这类任务往往涉及大量逻辑判断、任务调度和多线程处理,而这些恰恰是CPU更擅长的领域。
研究数据显示,在代理AI工作流中,大约44%的计算任务需要依赖CPU,这一比例是传统AI计算场景的3至4倍。这意味着在新的AI架构中,CPU不再只是辅助角色,而成为数据中心中负责协调和调度的“核心大脑”。
这种算力结构变化也直接反映在服务器需求上。根据研究机构的预测,2026年全球服务器出货量增速预计将达到约20%,远高于此前市场普遍预期的10%至15%。如果没有供应链限制,真实需求甚至可能接近60%。
可以通过一个简单的对比理解AI算力结构的变化:

另外,AI服务器需求的增长不仅来自技术变化,也来自资本支出的推动。随着云计算巨头持续加大投入,数据中心硬件采购规模正在快速扩大。预计到2026年,主要云服务商的资本开支可能达到数千亿美元规模,其中越来越多资金将用于采购服务器和算力设备。
然而目前市场仍面临明显的供应瓶颈。CPU、DRAM内存等关键组件的供应缺口在30%至40%左右,SSD、电源芯片等也存在10%至30%的短缺。这意味着未来两三年服务器市场的增长,很可能呈现出“需求远高于供给”的状态。
总体来看,AI产业正在从单纯依赖GPU的阶段,进入一个更加复杂的算力体系。未来的数据中心不再只是“堆显卡”,而是需要在GPU、CPU和内存之间实现更高效的协同。这种算力结构的再平衡,也让CPU重新成为AI基础设施中的关键节点。











