美国防部与Anthropic因AI使用条款破裂 特朗普下令禁用其技术

因使用条款分歧,美国防部与AI公司Anthropic关系破裂,特朗普政府下令禁用其技术,但军方在近期对伊朗行动中仍使用了该公司的模型。

标签:
发表日期:2026年3月2日

美国人工智能公司Anthropic开发的Claude模型近期出现性能问题。该公司状态页面显示,上月发布的Opus 4.6模型出现“性能下降”和“错误率升高”。公司于上午确认已识别问题并正在修复,随后不久,claude.ai、开发者控制台及Claude Code服务的故障均已排除。

此次事件背景是Anthropic与美国国防部之间的合同纠纷。该公司去年7月与五角大楼签署了价值2亿美元的合同,但规定其模型不得用于完全自主武器或对美国民众进行大规模国内监控。五角大楼拒绝了这一限制,坚持要求军方不应在技术任何被判定为合法的用途上受到限制。

上周五,美国总统唐纳德·特朗普(Donald Trump)下令所有美国政府机构“立即停止”使用Anthropic的技术。国防部长皮特·赫格塞思(Pete Hegseth)随后在社交媒体平台X上宣布,五角大楼已将该公司列为“国家安全供应链风险”。

政府与Anthropic关系破裂后,竞争对手OpenAI迅速行动,于同日与美国国防部达成了协议。

然而,尽管有禁令,美国军方在周末针对伊朗的大规模军事行动中,仍使用了Anthropic的Claude模型。


本网站所载文章的资料和数据来自匈牙利各大新闻网站和平台,文章观点仅代表原作者个人意见,不构成投资建议。