五角大楼拟对AI巨头Anthropic采取严厉措施 因使用条款谈判陷入僵局
美国国防部因与AI公司Anthropic在模型使用条款上存在严重分歧,考虑将其列为供应链风险,此举可能影响价值2亿美元的合同并为与其他科技巨头的谈判定调。
美国国防部(五角大楼)正考虑对人工智能公司Anthropic采取严厉措施,可能将其列为供应链风险,此举源于双方围绕其AI模型Claude使用条款的长期紧张谈判。
谈判僵局与核心分歧
谈判的核心分歧在于数据使用限制。Anthropic愿意放宽对其Claude模型的现有使用限制,但要求获得保证,确保其工具不会被用于对美国公民进行大规模监控,也不会被用于开发自主武器系统。
五角大楼则认为这些条件过于严苛。国防部坚持认为,军方应有权为任何合法目的使用人工智能工具。这一要求不仅针对Anthropic,也指向OpenAI、Google和xAI等其他主要科技公司。
Claude的军事应用与潜在影响
目前,由Anthropic开发的Claude是唯一可在美军机密系统中使用的人工智能模型。五角大楼官员对其能力表示认可。据Axios此前报道,该软件已深度融入军事行动执行中,例如在今年1月针对委内瑞拉总统Nicolás Maduro的突袭行动中就已使用Claude。
若Anthropic被列为供应链风险,影响将不仅限于五角大楼,还会波及众多与国防部有业务往来的公司。这些公司将需要证明其工作流程未使用Claude,而据Anthropic称,美国十大公司中有八家使用了该模型,这使得验证任务极为复杂。面临风险的合同价值可能高达2亿美元,尽管这仅占Anthropic年收入140亿美元的一小部分。
双方表态与复杂局面
五角大楼发言人Sean Parnell表示,他们正在审查现有合作关系,因为期望合作伙伴能在“任何战斗中”支持士兵。“归根结底,这关乎我们的团队和美国人民的安全,”该发言人称。
Anthropic发言人则表示,他们正与国防部进行“建设性、善意的谈判”,并提醒Claude是首个部署在机密网络上的人工智能语言模型。
另一方面,数据隐私问题引发严重担忧。现行的大规模监控法规并未考虑人工智能因素,而AI技术能显著增强当局对平民进行针对性监控的能力。
一名政府官员承认,局势因竞争对手的模型在专门的政府应用领域仍处于落后状态而变得复杂,突然更换供应商也会给五角大楼带来操作困难。
五角大楼对Anthropic的强硬立场,也可能为与其他三家大型科技公司的谈判树立先例。
本网站所载文章的资料和数据来自匈牙利各大新闻网站和平台,文章观点仅代表原作者个人意见,不构成投资建议。

