谷歌云大会前瞻:TPU开放与Agent革命,被低估的AI全栈巨头迎来价值重估?

全球人工智能产业的竞争格局,正从单一的模型能力比拼,转向基础设施、应用生态与商业模式的全方位较量。即将于4月22日至24日举行的谷歌Cloud Next 2026开发者大会,被市场视为观察这一深刻变革的关键窗口。尽管市场对谷歌的认知仍部分停留在其传统广告业务的印象上,但深入分析其近期的战略布局与产业动态,一个清晰的图景正在浮现:谷歌正凭借其从芯片到应用的全栈式AI能力,悄然构建一个更具韧性和增长潜力的新护城河。本次大会的核心看点,将围绕其自研算力的商业化突破与智能体(Agent)生态的全面落地展开。
全球人工智能产业的竞争格局,正从单一的模型能力比拼,转向基础设施、应用生态与商业模式的全方位较量。即将于4月22日至24日举行的谷歌Cloud Next 2026开发者大会,被市场视为观察这一深刻变革的关键窗口。尽管市场对谷歌的认知仍部分停留在其传统广告业务的印象上,但深入分析其近期的战略布局与产业动态,一个清晰的图景正在浮现:谷歌正凭借其从芯片到应用的全栈式AI能力,悄然构建一个更具韧性和增长潜力的新护城河。本次大会的核心看点,将围绕其自研算力的商业化突破与智能体(Agent)生态的全面落地展开。

算力基础设施的范式转移:TPU从自用走向开放
长期以来,英伟达的GPU在AI算力市场占据主导地位。然而,谷歌自研的TPU(张量处理单元)正从一项内部技术,演变为一个可能改变行业格局的开放算力选项。这一转变的市场认知度目前仍然不足,但其商业化的步伐正在加速。
近期产业链信息显示,谷歌TPU的出货预期已从年初的约330万颗大幅上修,市场最高预期已接近600万颗。这一调整并非空穴来风,而是基于顶级客户的实质性采购。一个标志性事件是,领先的AI公司Anthropic在2025年10月预订了高达1GW的TPU算力,并计划从2027年起通过博通获得总计3.5GW的TPU算力,合作延续至2031年。此外,Meta也在今年2月与谷歌达成了一项价值数十亿美元的协议,以云端租用的方式获取TPU算力,并探索未来直接采购TPU芯片部署自有数据中心的可能。
这些订单的意义在于,TPU已经通过了全球最前沿AI公司的严苛验证。对于寻求算力供应多元化、避免过度依赖单一供应商的大型科技公司而言,谷歌TPU提供了一个经过大规模实践检验的可行替代方案。这标志着TPU生态从封闭走向开放的关键一步。
预计在本次大会上,谷歌将正式发布新一代TPUv8。参考其发布节奏,TPUv8可能在峰值算力、内存带宽和能效比上实现进一步跃升。上一代TPUv7的单Pod峰值算力已达到42.5 Exaflops,HBM容量为192GB,带宽高达7.37TB/s。性能的持续迭代,结合其与博通、联发科等芯片设计伙伴的深度合作,使得TPU在特定工作负载下的性价比优势日益凸显。
光互联技术:被低估的集群规模关键
在讨论AI算力时,人们往往聚焦于单个芯片的性能,而忽略了将成千上万颗芯片高效连接成一个超级计算机的互联技术。这正是谷歌另一项被市场低估的优势所在——其自研的光路交换机(Optical Circuit Switch, OCS)。
根据相关技术分析,在TPU v7 Pod集群中,OCS的配置比例约为0.52%。这意味着一个由9216颗芯片组成的TPU Superpod,需要48台OCS交换机来实现全芯片间的低延迟、高带宽互联。随着AI模型参数规模和数据集的爆炸式增长,训练集群的规模正从“万卡”向“十万卡”乃至更大规模迈进。传统的电交换机在带宽、功耗和延迟上面临瓶颈,而OCS技术凭借其高带宽、低功耗和可重构性,被视为构建超大规模AI集群的下一代关键技术。
谷歌是目前全球少数将OCS技术进行大规模商业化部署的公司。这项“看不见”的基础设施,是其能够高效运营庞大TPU集群、保持算力利用率处于高水平的核心技术保障之一,也构成了其对外输出算力服务时难以被轻易复制的底层优势。
应用层革命:Agentic AI开启企业智能化新篇章
如果说强大的算力是谷歌在AI时代的“矛”,那么正在兴起的智能体(Agentic AI)生态则是其坚固的“盾”和新的增长引擎。本次Cloud Next大会专门设置多场Agent主题演讲,预示着这将成为谷歌云赋能企业客户的核心叙事。
行业的焦点正在发生范式转移:从追求“更大更强的通用模型”,转向构建“能够理解复杂指令、调用工具、执行多步骤工作流”的专用智能体。OpenAI推出了整合多种能力的Desktop应用,Anthropic发布了面向企业的Claude Managed Agents平台。谷歌的路径则显示出更强的系统性和对企业级市场的聚焦。
市场预期,谷歌将在此次大会上进一步强化其Agent开发工具链,可能包括升级ADK(Agent Development Kit)开发框架,完善基于开放协议(如HTTP/SSE)的A2A(Agent-to-Agent)通信标准,并推出或更新如Jules、Antigravity等旨在提升Agent规划与工具调用能力的组件。其核心目标在于降低企业构建和部署复杂业务流程自动化Agent的门槛。
谷歌在这一领域的独特优势在于其深厚的企业客户基础。通过将Agent能力深度整合进Google Workspace、Google Cloud Platform以及其庞大的开发者生态中,谷歌能够为企业提供从底层算力、中间件平台到上层应用的一站式智能化解决方案。这种“全栈式”的捆绑能力,在追求稳定性、安全性和集成效率的企业市场中,可能比单一的模型能力更具吸引力。
从更长期的视角看,Agentic AI可能引发互联网流量和服务的分发范式革命。过去二十年,谷歌主导了“搜索-点击”的信息分发模式。未来,用户可能将需求直接交付给Agent,由Agent自主决策并调用各类服务完成任务,形成“意图-结果”的新范式。作为当前流量入口的掌控者,谷歌必然全力投身于这场变革,以确保其在下一代人机交互时代的主导地位。
模型能力的稳步迭代与全栈协同效应
在备受关注的模型层面,谷歌采取了相对稳健的迭代策略。其最新发布的Gemini系列模型及开源版本Gemma,在长上下文、多模态理解和工具调用等企业级关注的能力上持续进步。虽然没有频繁制造轰动性新闻,但这种稳步推进的方式更有利于企业客户进行长期的IT规划和投入。
更重要的是,谷歌正在展示其“全栈协同”的独特价值。自研的TPU为其模型训练提供了高效、可控的算力基础;Gemini模型为上层Agent应用提供智能核心;庞大的云与 Workspace企业客户群则为应用落地提供了现成的市场和反馈闭环。这种从芯片到SaaS的垂直整合能力,在AI投入日益巨大、技术栈日益复杂的背景下,可能转化为显著的效率优势和竞争壁垒。
投资视角下的机遇与风险审视
从资本市场角度看,市场对谷歌的估值可能尚未充分反映其AI全栈能力从技术储备向大规模商业化兑现的潜力。传统上,谷歌的估值主要锚定其广告业务的现金流。然而,其云业务(包含AI基础设施服务)和新兴的Agent平台业务,正开辟全新的增长曲线。
一些机构分析认为,TPU对外销售业务的潜在市场规模被低估。如果谷歌能成功将其打造为AI算力市场的重要一极,这不仅将带来直接的硬件和云服务收入,更能增强其整个AI生态的吸引力和锁定效应。同时,面向企业的Agent服务平台,则可能开启一个基于自动化流程和效率提升的订阅制软件服务市场。
当然,前景也伴随着风险。AI Agent的大规模商业化落地仍需时间验证,其实际创造的经济价值可能慢于市场预期。在模型层面,谷歌仍需面对来自OpenAI、Anthropic等公司的激烈竞争。此外,其核心的搜索与广告业务持续面临全球范围内的反垄断监管压力,这可能在一定程度上牵制其战略资源。TPU生态的开放成功与否,也取决于其能否吸引足够多的开发者和第三方云平台,构建起繁荣的软件生态。
综合而言,谷歌Cloud Next 2026大会将是一次对其AI战略成色的集中检验。投资者关注的焦点不应仅限于某一款新模型或产品的发布,而应深入审视其全栈能力整合的进展、TPU商业化的客户反馈以及Agent生态的开发者响应。在AI竞赛的下半场,基础设施的稳固性、生态的完备性以及商业化的执行力,或许将与算法的前沿性同等重要。谷歌正在走的,正是一条迥异于单纯模型竞赛的、更重也更长的道路。这条道路的成败,将深刻影响未来全球科技产业的权力格局。











