美国防部与AI公司Anthropic就安全限制起冲突 威胁动用《国防生产法》
美国国防部要求人工智能公司Anthropic移除其模型的安全限制,以用于包括监控和自主武器在内的所有合法目的,并威胁动用《国防生产法》,而Anthropic则以伦理和安全为由拒绝。
美国国防部(五角大楼)与人工智能公司Anthropic之间的争议核心在于,国防部要求该公司移除现有安全限制,允许其模型用于所有合法目的。
五角大楼发言人肖恩·帕内尔(Sean Parnell)在社交平台X上表示,该公司必须在周五下午5点前做出决定。否则,将终止合作关系,并将Anthropic列为供应链风险因素。
Anthropic首席执行官达里奥·阿莫代伊(Dario Amodei)在周四的声明中明确表示,公司反对将其模型用于大规模国内监控和完全自主武器系统的操作。
对于后者,他解释称,“尖端人工智能系统根本不够可靠”。一位接近该公司的消息人士表示,人工智能系统在未知情境下行为不可预测,在武器背景下可能导致“友军误伤、任务失败或非预期的冲突升级”。
关于大规模监控,该消息人士指出,现行法律并未限制人工智能从海量数据汇总中得出何种推论。这意味着AI可以构建目前没有任何法律明确禁止、但显然违背宪法保护精神的公民档案。
阿莫代伊透露,五角大楼不仅以终止合同和列为供应链风险相威胁,还威胁动用《国防生产法》(Defense Production Act)来强制移除安全限制。
国防部副部长埃米尔·迈克尔(Emil Michael)在X上回应,称阿莫代伊为骗子,并指控其试图在危及国家安全的同时,个人掌控美国军队。
获得谷歌和亚马逊支持的Anthropic发言人表示,公司准备继续谈判。Anthropic的立场得到了200多名谷歌和OpenAI员工在一封公开信中的支持。
本网站所载文章的资料和数据来自匈牙利各大新闻网站和平台,文章观点仅代表原作者个人意见,不构成投资建议。

