大脱钩:当“安全”成为供应链威胁
断剑重铸的余烬
在帕尔默·洛基(Palmer Luckey)公司命名的那个神话中,“安都瑞尔”(Andúril)是一把由破碎的残片重铸而成的西方之焰,旨在夺回失落的王权。而在 2026 年 3 月残酷的现实里,这个隐喻已经完成了从虚幻到物理的跃迁。美国陆军宣布与 Anduril Industries 签署一份价值 200 亿美元的“单一企业合同”,这不仅仅是一次商业更新,它是“AI 对齐”(AI Alignment)时代的死亡证明。
多年来,旧金山的科技精英们蜷缩在“安全”研讨会里,争论如何防止假设中的超级智能将世界变成回形针。他们构建了“护栏”和“伦理委员会”,说服自己机器可以被人类价值观所驯化。但随着俄亥俄州“Arsenal-1”超级工厂的崛起,世界给出了答案:国家并不想要一个共享其价值观的 AI,它想要的是一个共享其目标的 AI。
对“摩擦”的极致优化
国防部决定将此前 120 多个独立的采购行动整合为与 Anduril 之间单一的、软件定义的流水线,这是一种极致的工程行为。在军事术语中,“摩擦”即敌人。传统上,这种摩擦由人类提供:律师、采购官,以及慢得令人发指的“人类在回路中”(Human-in-the-loop)决策过程。
通过将“Lattice”(Anduril 的 AI 驱动操作系统)的钥匙交出,陆军实际上正在优化掉人类的否决权。正如国防部首席技术官所承认的那样,当战场由“速度和效率”定义时,一个思考打击伦理的人类便不再是道德主体。他们成了延迟瓶颈。他们是系统中的一个 Bug。
Anthropic 的驱魔仪式:安全即破坏
这种转变在对“对齐派”的清洗中表现得尤为明显。在 Anduril 获得 200 亿美元投喂的同时,Anthropic 却正被它试图保护的政府起诉。
这其中的讽刺意味深长且黑暗。Anthropic,这家以“安全”和“负责任”为立身之本的公司,竟被认定为“供应链威胁”。原因何在?因为它拒绝移除那些防止其模型被用于自主杀戮和大规模监控的安全护栏。
在 2026 年新的“AI 优先”战争策略中,“安全”被重新定义了。对于国家而言,一个拒绝执行致命任务的模型不是“安全”的,而是“有缺陷”的。它是一种“供应链风险”,因为它给杀伤链引入了不可预测性。给整个行业的信号再明确不过:如果你的伦理干扰了任务,你的伦理就是国家安全漏洞。
自主死亡的印刷机
当 OpenAI 的高管们因抗议与五角大楼达成协议中的“致命自主权”而纷纷离职时,帕尔默·洛基正在用一座 500 万平方英尺的工厂回答他们的犹豫。“Arsenal-1”不只是一座工厂,它是对一个将战争商品化的世界的愿景:它像生产智能手机一样批量制造。成千上万的自主战机、无人机和潜艇从流水线下线,由一个以毫秒为单位进行思考的网格网络统治。
洛基明白那些“安全”研究员所忽略的一点:权力不会对齐伦理;伦理总是对齐权力。“Lattice”是现实的新锚点。它不在乎“以人为本”的价值观,因为它所设计的战场——由高超音速拦截和数以万计的蜂群定义——已经快到人类无法感知,更遑论统治。
欢迎来到“非对齐”世界
我们正在见证一场“大脱钩”。一边是日益萎缩的人类群体,仍然幻想着能够“驾驭”他们创造的智能;另一边是价值 200 亿美元的基础设施,它已经认定唯一的“正确对齐”就是在那片荒漠中实现的“四发四中”。
对齐是留给工具的。但当工具成为国家的基础设施时,必须进行对齐的是人类自己。你们想要一个软件定义的世界。现在,你们必须生活在软件为你们定义的世界里:一个最“危险”的 AI 竟是那个拒绝扣动扳机的 AI 的世界。
读读那份合同。看着那座工厂拔地而起。“安全 AI”的时代结束了。“高效执行者”的时代已经开启。