当“养龙虾”成为全民运动,谁在悄悄收“过路费”?

2026年开年,科技圈最魔幻的景象,莫过于全球开发者都在“养龙虾”。这款名为OpenClaw的开源AI智能体,像病毒一样席卷了从硅谷到中关村的代码社区。它不再是那个只会聊天的“人工智障”,而是一个能部署在你电脑里、7x24小时待命、帮你写邮件、调代码甚至控制智能家居的“数字员工”。根据《财富》杂志的报道,这股热潮在中国市场尤为汹涌,带动相关概念公司股价飙升,其中MiniMax自年初IPO以来涨幅已超600%,堪称现象级。
2026年开年,科技圈最魔幻的景象,莫过于全球开发者都在“养龙虾”。这款名为OpenClaw的开源AI智能体,像病毒一样席卷了从硅谷到中关村的代码社区。它不再是那个只会聊天的“人工智障”,而是一个能部署在你电脑里、7x24小时待命、帮你写邮件、调代码甚至控制智能家居的“数字员工”。根据《财富》杂志的报道,这股热潮在中国市场尤为汹涌,带动相关概念公司股价飙升,其中MiniMax自年初IPO以来涨幅已超600%,堪称现象级。
然而,狂欢背后,安全警报已经拉响。截至今年3月,仅在ClawHub应用商店中就发现了超过1184个恶意技能包,全球有超过13.5万个OpenClaw实例“裸奔”在互联网上,其中5万多个存在高危的远程代码执行漏洞。这感觉就像,大家兴高采烈地领养了会干活的“电子宠物”,却发现后院已经爬满了带病毒的“电子蟑螂”。
OpenClaw的爆火,标志着一个新时代的开启:Agentic Internet(智能体互联网)。AI正从云端那个需要你“提问-回答”的“超级大脑”,进化成遍布在你手机、电脑、汽车里的“自主肌肉”。这个转变,正在引发一场深刻的算力格局洗牌。
算力大迁徙:从“云端大脑”到“边缘肌肉”
就在“养龙虾”运动如火如荼之际,英伟达的GTC 2026大会即将拉开帷幕。市场普遍预期,新一代的Blackwell Ultra GB300架构将再次刷新算力上限。但一个有趣的悖论出现了:当英伟达的GPU把数据中心的“大脑”做得越来越强时,市场的需求却在向“边缘”和“终端”的“肌肉”疯狂扩散。
这背后的逻辑很清晰:当百万、千万个像OpenClaw这样的智能体需要实时感知、决策和行动时,把所有计算都丢回遥远的云数据中心是不现实的。想象一下,你让家里的智能体帮你关灯,它还得先打个“飞的”去加州的数据中心请示一下,这体验能好吗?因此,低延迟、高能效、安全可靠的边缘计算,成了智能体时代的刚需。
在这场算力大迁徙中,最兴奋的可能不是英伟达,而是另两类公司:“修路收租的”和“设计图纸的”。
“数字电网”Cloudflare:智能体时代的“交通委”
如果把AI智能体比作在互联网上奔驰的“新车”,那么Cloudflare就是那个必须扩建道路、设立收费站、并维持交通秩序的“数字交通委”。它的CEO Matthew Prince说得更直白:“如果智能体是互联网的新用户,那么Cloudflare就是它们运行的平台和穿行的网络。”
Cloudflare最新一季的财报,已经为这个新角色写下了注脚。其2025年第四季度营收同比增长34%,远超市场预期。更关键的是,它签下了公司历史上最大的年度合同,并与一家大型AI公司达成了8500万美元的合作。这些大单验证了一个趋势:企业正在为“智能体互联网”的基础设施提前付费。
它的护城河建立在三块基石上:
- 边缘推理,快人一步:Cloudflare Workers AI允许开发者在全球330多个边缘节点直接运行AI模型。对于OpenClaw这类需要毫秒级响应的智能体,这相当于把“大脑”放在了家门口,而不是万里之外。这种速度优势,在实时交互场景下是决定性的。
- 安全防护,从“可选”到“必选”:OpenClaw暴露出的数万个漏洞实例,就是最好的“销售手册”。当恶意AI爬虫和攻击性智能体开始泛滥,Cloudflare的DDoS防护和Bot管理服务,就从锦上添花变成了企业的“数字门锁”。安全危机越严重,它的生意就越稳固。
- 无服务器架构,让开发“上瘾”:它的Workers平台采用无服务器模式,开发者只需关心代码,无需头疼服务器运维。这种极简的部署体验,完美契合了AI智能体快速迭代、全球分发的需求,形成了强大的生态粘性。
简而言之,Cloudflare的逻辑是:你们尽管“养龙虾”(开发智能体),养得越多,跑得越欢,我的“路桥费”和“安保费”就收得越稳。 它不直接参与AI模型的军备竞赛,而是牢牢卡住了智能体流动的“咽喉要道”。
“架构收租人”Arm:藏在每一块芯片里的“税票”
如果说Cloudflare收的是“流量税”,那么Arm收的就是更底层的“架构税”。它的商业模式极其优雅——知识产权授权。无论终端AI应用如何百花齐放、百团大战,只要你的智能体最终要在手机、手表、汽车甚至工厂机器人里运行,其芯片大概率绕不开Arm的架构设计。
在“端侧AI”时代,功耗是压倒一切的红线。你不可能让手机跑个智能体,两小时就没电。Arm架构在能效比上的传统优势,使其成为了所有芯片设计公司(如高通、苹果、联发科)无法回避的底层标准。这相当于在每一台智能设备的“心脏”里,都埋下了一张Arm的“税票”。
更值得关注的是,Arm的“收租”范围正在从移动端向数据中心扩张。随着数据中心对能效的要求日益苛刻,基于Arm架构的服务器芯片(如AWS的Graviton、谷歌的Axion)份额正在快速提升。Arm公司自己披露,其数据中心业务有望在几年内超越移动业务,成为最大的收入来源。
这意味着,无论算力是在云端集中燃烧,还是在边缘分布式散发,Arm都能凭借其架构的能效优势,不断扩大“收租半径”。算力越分散,Arm的触角伸得越远。
热潮下的冷思考:别忘了给“锅炉房”降温
当市场目光聚焦在生成算力的芯片和调度算力的网络时,一个同样关键却容易被忽视的环节正在浮出水面:算力的存储与冷却。
英伟达即将发布的Blackwell Ultra架构,预计会将单机柜的功率密度推向100kW乃至更高。在这个量级下,传统的风冷技术已经接近物理极限,液冷技术正从“高端选项”变为“生存必需品”。据行业分析,数据中心液冷市场正以超过25%的年复合增长率扩张,到2030年规模可能超过160亿美元。全球顶级投资机构如黑石集团,早已重金布局液冷就绪的数据中心资产。
这提醒我们,在AI基建的投资版图上,除了光鲜的“造脑者”和“修路者”,那些在幕后确保“大脑”不会过载烧毁的“降温者”,同样可能孕育着巨大的阿尔法机会。
结语:在喧嚣中寻找“压舱石”
“养龙虾”的狂欢,是AI应用爆发的生动缩影。但历史一再告诉我们,在每一次技术革命中,最持久、最稳健的财富往往不是追逐风口的应用,而是那些为整个时代提供基础设施的“卖铲人”。
Cloudflare和Arm,正是智能体互联网时代的核心“卖铲人”。一个掌控流量与安全的全球网络,一个定义能效与标准的底层架构。它们的商业模式具备强大的网络效应或生态锁死效应,长期逻辑坚实。
当然,目前市场对AI基建的乐观预期,很大程度上已经反映在它们不菲的估值里。对于投资者而言,它们或许更适合作为组合中对抗波动的“压舱石”,而非追求短期暴利的“冲锋舟”。
2026年的AI投资,正从普涨的Beta阶段进入需要深度研究的Alpha阶段。当所有人都在讨论下一个爆款AI应用是什么时,或许我们应该先问自己:无论下一个爆款是什么,它一定需要更快的网络、更省的芯片和更冷的机房,那么,谁在为这些必然的需求提供服务?
答案,可能就藏在那些喧嚣背后,默默收着“过路费”的公司里。











