五角大楼AI军备竞赛:拉拢七巨头,唯独封杀Anthropic
美国国防部近日一口气与七家AI巨头签署了机密协议,包括OpenAI、谷歌、微软、亚马逊、英伟达、马斯克的xAI以及初创公司Reflection,允许这些公司的AI工具在机密环境中使用。这一举动标志着美军正式向“AI-first”战斗力量转型。然而,名单中却少了一个熟悉的名字——Anthropic,这家此前与五角大楼有2亿美元合作的公司,如今被列为“供应链风险”。
七巨头入局,AI军备竞赛升级
五角大楼首席技术官Emil Michael向CNBC证实,这些协议旨在实现AI系统的“合法作战使用”。实际上,OpenAI和xAI此前已与军方达成类似合作,谷歌据传也已签约,而微软和亚马逊与五角大楼的“老交情”更是深厚。新加入的英伟达和Reflection则代表了计算硬件和新型AI应用的补充。这一布局清晰表明,美军正试图将AI融入从情报分析到自主决策的各个环节。
Anthropic为何被踢出局?
最戏剧性的反转在于Anthropic。这家以“安全优先”著称的AI公司,去年曾与五角大楼签订2亿美元合同,用于处理机密材料。但问题出在“红线”上:Anthropic拒绝放松对大规模国内监控和完全自主武器的限制。这一立场直接导致五角大楼将其产品全面封禁。更讽刺的是,Anthropic随后起诉联邦政府并赢得了临时禁令,但五角大楼依然坚持将其列为风险。
不过,Emil Michael对Anthropic的安全模型Mythos评价颇高,称其是“独立的国家安全时刻”,能有效发现和修复网络漏洞。他表示:“我们必须确保网络足够坚固,因为那个模型拥有独特的能力。”这种既爱又恨的态度,折射出军方在安全与伦理之间的两难。
AI军事化的“灰色地带”
这场风波背后,是AI公司在军事应用上的分裂。一方面,OpenAI、谷歌等巨头选择与军方合作,强调“合法使用”;另一方面,Anthropic坚持伦理底线,宁可放弃巨额合同。这种分歧不仅关乎商业利益,更关系到AI技术的未来走向——是成为战争的利器,还是和平的守护者?
值得注意的是,五角大楼的“AI-first”战略并非孤例。全球各国都在加速军事AI部署,但缺乏统一的伦理框架。Anthropic的遭遇或许是个警示:在军备竞赛的赛道上,那些坚持原则的公司可能会被边缘化,而留下的玩家将定义战争的规则。
对于普通用户来说,这些变化看似遥远,但AI的军事化将深刻影响技术发展方向。当最先进的模型被用于导弹制导或监控系统时,民用领域的AI安全是否会受到牵连?答案或许就在五角大楼的这份名单里。