OpenAI“拿下”五角大楼,AI军备竞赛进入“选边站”时代?

周五深夜,当大多数硅谷的工程师们正准备享受周末时,山姆·奥特曼(Sam Altman)在X平台的一条推文,像一颗投入平静湖面的石子,激起了科技与国防界层层涟漪。OpenAI宣布,已与美国国防部达成协议,将为其“机密网络”提供人工智能模型。这距离白宫下令所有联邦机构停止使用其最大竞争对手Anthropic的技术,仅仅过去了几个小时。
周五深夜,当大多数硅谷的工程师们正准备享受周末时,山姆·奥特曼(Sam Altman)在X平台的一条推文,像一颗投入平静湖面的石子,激起了科技与国防界层层涟漪。OpenAI宣布,已与美国国防部达成协议,将为其“机密网络”提供人工智能模型。这距离白宫下令所有联邦机构停止使用其最大竞争对手Anthropic的技术,仅仅过去了几个小时。
这戏剧性的一幕,远不止是一家公司的商业胜利。它标志着,生成式AI这个被视为“第四次工业革命”核心引擎的技术,正被迅速卷入地缘政治与国家安全的漩涡中心。对于投资者而言,这不再是一个简单的“科技股”故事,而是一个关于技术路线、监管风险与大国博弈的复杂方程式。
一场“闪电战”:从禁令到签约的24小时
事件的节奏快得令人咋舌。就在奥特曼宣布消息的当天早些时候,美国国防部长皮特·赫格塞斯(Pete Hegseth)将Anthropic定性为“国家安全供应链风险”。这个标签通常用于指代外国对手,一旦贴上,意味着国防承包商必须证明其供应链中未使用该公司的技术。
紧接着,总统特朗普签署行政令,要求所有联邦机构立即停止使用Anthropic的AI模型,并为已深度集成的系统设定了六个月的过渡期。数小时后,OpenAI的捷报传来。
这种“无缝衔接”很难不让人产生联想。Anthropic曾是第一个在五角大楼机密环境中部署模型的AI实验室,去年7月刚签下一份价值2亿美元的合同。然而,谈判在关键时刻破裂。根据公开信息,核心分歧在于“技术使用红线”:Anthropic坚持要求其软件不得用于开发自主武器或进行国内大规模监控,而五角大楼则希望技术能应用于所有“合法的军事用途”。
OpenAI似乎找到了某种平衡。奥特曼在声明中强调,新协议同样包含了“强有力的保障措施”,包括禁止用于国内大规模监控,并要求涉及使用武力的决策(包括自动化武器系统)必须保留“人类在环”的最终责任。
不只是商业竞争,更是“价值观”站队
这场风波迅速超出了商业范畴,演变成一场公开的价值观辩论。美国民主党人士克里斯托弗·黑尔(Christopher Hale)在X上写道:“我刚取消了ChatGPT Plus,转投了Claude Pro Max。一个捍卫美国人民的天赋人权,另一个向专制屈服。” 他的言论代表了一部分科技界和民众的担忧:当AI巨头与军事机器深度绑定,其初创时立下的“造福人类”的伦理承诺,是否会逐渐褪色?
加密货币社区的反应则更为尖锐。一位用户讽刺道:“2019年的OpenAI:我们绝不会协助建造武器或监控工具。2026年的OpenAI:战争部,请用我的专属机密云实例。这‘诚信弧线’飞得可真高。”
Anthropic在声明中对政府的定性表示“深感悲痛”,并计划诉诸法律途径。该公司警告,此举可能开创一个危险的先例:未来任何科技公司在与政府合作时,都可能因坚持自己的伦理准则而面临“国家安全风险”的指控,从而在商业上被边缘化。
这让我想起2020年谷歌员工因参与Maven项目(利用AI分析无人机图像)而发起大规模抗议,最终导致谷歌退出相关竞标。如今看来,OpenAI选择了一条不同的路。从投资角度看,这既是巨大的商业机会(打开了万亿美元级别的政府与国防市场),也埋下了长期的ESG(环境、社会和治理)与品牌声誉风险。未来,机构投资者在评估AI公司时,“政府合同占比”和“伦理条款清晰度”必将成为更关键的评分项。
投资者的新棋盘:AI赛道的“地缘政治溢价”
对于关注科技股,尤其是AI赛道的投资者来说,这一事件传递了几个不容忽视的信号:
-
“可被信任”成为核心竞争力。 在涉及国家安全的敏感领域,技术的先进性与开放性不再是唯一标准,甚至不是首要标准。“是否可控”、“是否符合本国战略利益”成为新的准入门槛。OpenAI此次胜出,某种程度上是获得了美国政府的“信任背书”。未来,在全球其他市场,本土AI公司可能凭借类似的“信任优势”,获得更大的发展空间和政策支持。这意味着全球AI市场可能进一步走向区域化、碎片化。
-
伦理条款从“成本”变为“资产”。 Anthropic因坚持伦理红线而“出局”,短期内看似商业损失,但长期可能塑造其“负责任AI”的独特品牌形象,吸引特定用户群体(如注重隐私的企业、教育机构、非政府组织等)。这就像投资中的“价值观投资”赛道,虽然小众,但用户粘性和护城河可能极深。OpenAI则走向了另一条路,试图在商业扩张与伦理框架之间寻找微妙的平衡点,这条路收益高,但走钢丝的风险也更大。
-
供应链安全催生“第二梯队”机会。 美国政府将一家顶级AI公司定性为“供应链风险”,这无异于一次最高级别的风险提示。可以预见,全球主要经济体都会加速培育自己的“备份”AI能力。这不仅利好各国的本土AI初创公司,也为AI基础设施(算力芯片、云计算、数据服务)的“去中心化”布局带来了机会。那些能为多区域、多架构提供兼容性解决方案的硬件和云服务商,价值可能会重估。
-
投资逻辑从“通用模型”转向“垂直应用”。 当基础模型的竞争掺杂了太多非市场因素,投资者的目光可能会更多转向下游的、离商业变现更近的AI垂直应用。例如,在医疗研发、金融分析、工业设计等领域深度耕耘的AI公司,其业务受地缘政治的直接冲击较小,增长路径反而更清晰。
写在最后:在“效率”与“控制”之间
OpenAI与五角大楼的牵手,是AI技术发展史上的一个标志性节点。它宣告了AI“纯技术乌托邦”时代的终结,正式进入了必须与权力、伦理和国家安全共舞的现实新阶段。
对于投资者而言,这要求我们以更复杂、更多维的视角来看待AI投资。不能再仅仅盯着模型的参数规模和测试分数,更要关注公司的治理结构、地缘政治站位、伦理框架的韧性,以及其在复杂国际环境中的长期适应能力。
市场永远在奖励敏锐的洞察。当大多数人还在为ChatGPT的又一次更新而惊叹时,真正的变化已发生在会议室和五角大楼的密谈中。下一次,当你评估一家AI公司的价值时,或许该问自己一个问题:它只是在创造聪明的工具,还是在参与塑造未来的权力格局?答案的不同,可能意味着完全不同的投资回报与风险敞口。当然,任何投资决策都需要结合自身的风险承受能力,毕竟,在技术革命与大国博弈的交汇处,唯一确定的就是不确定性本身。











