美国防部将AI巨头Anthropic列为供应链风险 转而与OpenAI签约

美国国防部将人工智能公司Anthropic列为供应链风险实体,并转而与OpenAI签约,允许其在军方机密网络部署AI模型,但需遵守禁止大规模监控和确保人类对武器拥有最终决策权的安全条款。

标签:
发表日期:2026年2月28日

美国国防部(五角大楼)已将人工智能实验室Anthropic列为国家安全供应链风险,并在此后与竞争对手OpenAI达成协议,允许后者的人工智能模型在其机密网络上部署。

OpenAI首席执行官萨姆·阿尔特曼(Sam Altman)周五在社交媒体平台X上宣布,已与美国国防部达成协议。根据协议,OpenAI为其模型在国防部机密网络上的应用设定了两项关键安全限制:禁止对美国公民进行大规模监控,并要求在所有武器系统(包括自主武器)的使用中,最终决策必须由人类做出。阿尔特曼表示,国防部已接受这些条件,这些条件也与现行美国法律法规和政策指导方针保持一致。

此次协议达成于人工智能行业极为紧张的一周尾声。美国国防部长皮特·赫格塞斯(Pete Hegseth)周五将Anthropic列为涉及国家安全的“高风险供应链实体”。此类分类通常针对外国对手,并要求五角大楼的供应商及分包商证明其未使用Anthropic的模型。

Anthropic曾是首个将其模型部署在国防部机密网络上的人工智能实验室。然而,关于续签合同的谈判陷入僵局。Anthropic要求获得保证,其模型不会被用于完全自主的武器或大规模国内监控。而五角大楼则要求该公司同意其模型可用于所有合法的军事用途。

值得注意的是,阿尔特曼在一份周四的内部备忘录中承认,OpenAI划定了与Anthropic相同的“红线”。目前尚不清楚国防部为何愿意接受OpenAI的这些条件,却在Anthropic的案例中予以拒绝。不过,美国政府官员数月来一直批评Anthropic,认为该公司对人工智能安全提出了过度的担忧。

阿尔特曼呼吁国防部向所有人工智能公司提供相同的条款。他强调,局势应向合理的协议方向转变,而非诉诸法律和政府强制措施。

Anthropic就五角大楼的决定发表声明回应,称被列为供应链风险“深感失望”,并表示将在法庭上挑战该决定。


本网站所载文章的资料和数据来自匈牙利各大新闻网站和平台,文章观点仅代表原作者个人意见,不构成投资建议。