AI伦理与商业利益冲突加剧 Anthropic与OpenAI研究员相继离职

硅谷AI公司Anthropic与OpenAI的研究员因伦理担忧及商业化压力相继离职,凸显了AI行业安全优先与利润驱动之间的深层矛盾,同时欧洲正通过AI法案应对技术应用带来的经济与社会挑战。

标签:
发表日期:2026年2月15日

硅谷科技行业在优先考虑安全的研究人员与追求利润最大化的企业管理层之间的裂痕日益明显。

人工智能(AI)公司Anthropic的研究员Mrinank Sharma已宣布离职。他在X(原Twitter)上发布的公开信中解释了自己的决定。Sharma在Anthropic期间主要研究AI辅助的生物恐怖主义风险以及生成模型对人类行为的影响。他认为,威胁不仅来自AI或生物武器,更源于一系列正在展开的、相互关联的危机。

Sharma批评称,即使在Anthropic这样自诩以安全为中心的公司,竞争压力也常常凌驾于核心价值观之上。他写道:“我一次又一次地看到,让我们的价值观真正指导我们的行动是多么困难。”他补充说,未来他将转向文学领域,并计划搬回英国,投身诗歌创作,希望变得“隐形”。

Sharma的离职并非个例。 同一周,开发ChatGPT的OpenAI公司研究员兼经济学家Zoë Hitzig也宣布辞职,以抗议在该聊天机器人中引入广告。

Hitzig的决定直接关联于该公司开始在ChatGPT界面上测试广告。她在《纽约时报》(New York Times)发表的评论文章中警告,AI模型通过广告创收可能树立危险的先例。她认为,用户常常与聊天机器人分享最私密的秘密、健康问题或关系危机,相信他们是在与一个公正无私、没有隐藏动机的实体交流。她将这种数据量称为“人类诚实度的空前档案”。

她担心,如果一家公司的经济引擎建立在利用这些互动之上,将促使公司绕过自身的安全规则——类似于过去十年在Facebook等社交媒体巨头身上发生的情况。

讽刺的是,Anthropic与OpenAI之间正就广告问题展开激烈的舆论战。 Anthropic——这家由当初因安全担忧而从OpenAI分拆出来的开发者创立——最近发起了一场广告活动,批评其竞争对手引入广告。作为回应,OpenAI首席执行官Sam Altman称Anthropic为“骗子”,并指控其向富人提供昂贵产品,而OpenAI基于广告的模型则有助于更广泛的普及。

然而,研究人员的离职超越了两家公司的争论。 该行业普遍存在的职业倦怠和不满情绪已成为普遍现象。埃隆·马斯克(Elon Musk)的AI公司xAI也遭受了严重人才流失:该公司十二位联合创始人中已有六人离开,其中包括本周辞职的两位关键人物。尽管具体原因可能各不相同,但趋势是明确的:生成式人工智能的快速商业化以及竞争的加剧,正日益排挤或迫使那些首要关注技术安全与伦理发展的专业人士离开。

欧洲经济目前面临的最大困境之一与此密切相关,即找到人工智能的最佳应用水平并应对上述问题。 专家认为,应用不足和过度应用都可能带来重大的经济后果。欧洲人工智能法案(EU AI Act)旨在应对这些挑战。

如果AI技术得不到充分利用,欧盟(EU)可能在全球竞争中落后。这不仅可能导致经济停滞,还可能危及绿色转型等战略计划的实施。应用保守的背后可能有多种因素:

  • 资源错配风险: 欧洲认为,如果投资于最终无法带来实际社会或商业效益的项目,可能导致经济资源浪费。在技术本质上不适用的领域尝试使用也存在风险。
  • 法律责任界定: 这是伴随技术扩散最紧迫的问题之一。例如,在自动驾驶车辆事故中,确定赔偿责任应由车主、制造商还是软件开发者承担,会带来特别复杂的局面。过于宽松的监管可能削弱消费者信任,而不合理地严格的法规则会抑制创新。
  • 基本权利保护: 在算法运行所依赖的数据和设计原则中,可能有意或无意地存在偏见。这在招聘决策、信贷评估或刑事诉讼中尤其成问题,可能导致基于种族、性别或年龄的歧视。
  • 个人数据保护: 同样至关重要。通过面部识别技术和在线活动追踪,AI能够得出相关个体无法预见的推论。深度伪造(deepfake)技术——能够创建极其逼真的虚假视频、音频和图像——不仅可能在个人层面造成伤害,还可能通过操纵选举或分裂公众舆论来威胁民主进程。
  • 劳动力市场转型: 这是AI普及不可避免的后果。虽然一些工作岗位会消失,但新的职位也会产生。然而,要成功应对这一转型,需要全面的教育和再培训计划。
  • 竞争法关切: 拥有数据财富的大型企业可能形成垄断地位,将较小的竞争对手挤出市场。在物理环境中运行或植入人体的AI应用,在错误设计、不当使用或外部网络攻击的情况下会带来安全风险。
  • 透明度缺失: 这也引发了严重问题。用户并不总是清楚他们是在与算法还是人类交流,或者他们是否基于在线行为收到了个性化——且可能具有操纵性的——推荐。

此前,许多研究人员认为超级智能(superintelligence)的出现是危险的,而达到并超越人类智能水平的通用人工智能(AGI)离我们已不再遥远,甚至在某些领域已经到来。

过去一年,在技术领域,几乎所有话题都明确围绕着人工智能的发展,领先的AI公司今年以惊人的速度向市场推出了一个又一个新解决方案。尽管今年许多人担心“AI泡沫”会破裂,但基准测试显示,新模型远远超过了去年的模型,在某些领域甚至已经超越了人类的能力。

然而,大型语言模型(LLM)的可测量知识只是其中一个重要因素;自动运行能力是今年经常讨论的另一个要素,尤其是在与实现通用人工智能(AGI)相关的预期方面。

总体而言,近年来最强大的模型已开始接近人类专家的知识水平,在某些领域,测量表明可能已经超越了人类。斯坦福大学(Stanford University)2025年初发布的AI指数报告指出,领先的AI系统在易于形式化的任务(如图像识别)方面,早在2010年代就已超过了相当于人类能力的水平。而在更复杂的任务(如文本理解、学术水平的研究问题)方面,这一超越则显著较晚,发生在2022年之后。2024年和2025年,最重要的领域之一是推理(reasoning)能力的进一步发展。

尽管与此相关的风险显然存在,但我们有理由希望,在下一个时期,人工智能为人类带来的将不是世界末日,而是一个总体上更宜居、更富足的世界。


本网站所载文章的资料和数据来自匈牙利各大新闻网站和平台,文章观点仅代表原作者个人意见,不构成投资建议。