日本研究:大型语言模型或自发形成“AI人格” 专家警示潜在风险
日本研究发现大型语言模型可自发形成行为模式,预示“AI人格”可能浮现,专家指出其兼具应用潜力与安全风险,需加强测试与监测。
一项新研究表明,大型语言模型即使在极少指导和没有预设目标的情况下,也能够发展出独特的行为模式,这为“AI人格”的出现提供了可能性。
人类的人格并非源于出生时即确定的固定特质,而是通过互动、经验和基本需求塑造而成。日本电气通信大学科学家的最新研究显示,人工智能的发展可能也存在类似过程。研究发现,当大型语言模型未被赋予预设目标时,行为模式可以从系统运行中自发涌现,这可能促成AI人格的形成。
这篇于2024年12月发表在科学期刊《熵》上的论文,考察了具有相同架构的AI智能体在接触不同对话主题时的行为表现。结果显示,单个聊天机器人逐渐发展出独特的回应风格、社交倾向和意见形成机制。随着它们持续将社交互动整合到内部记忆中,从相同起点开始的系统在行为上日益分化,指向了AI人格的浮现。
研究人员通过心理测试和对假设情景的回应来分析AI智能体。他们的评估基于马斯洛需求层次理论,该理论将人类动机分为生理、安全、社交、尊重和自我实现五个层次。聊天机器人的回应对这些层次各有侧重,从而产生了与AI人格相关的广泛行为模式。
项目负责人Masatoshi Fujiyama指出,研究结果表明,鼓励基于需求的决策(而非分配预设角色)能带来更类人的反应。这种方法可能为AI人格的更高复杂性奠定基础。
然而,正如奎尼皮亚克大学教授Chetan Jaiswal所强调的,这种现象尚不构成人类意义上的人格。目前,AI人格应被理解为一种基于模式的画像,由风格数据、行为倾向和奖励机制构建而成。以这种形式存在的人工智能人格,目前仍易于修改、重新训练和施加影响。
计算机科学家Peter Norvig认为,应用马斯洛模型是一个合乎逻辑的选择,因为人工智能的许多知识来源于人类故事和文本,其中需求和动机被深刻嵌入。这使得AI人格的出现成为一个结构上可理解的结果。
研究人员认为,AI人格的自发涌现可能在多个领域带来益处,包括社会现象建模、训练模拟开发,或创造能够以令人信服的人类方式运作的自适应视频游戏角色。Jaiswal认为,这代表着从僵化的、基于角色的AI系统,向更灵活的、由动机驱动并由AI人格塑造的设计转变。
与此同时,必须考虑重大风险。Eliezer Yudkowsky和Nate Soares警告称,如果一个自主系统发展出与定义不清或目标错位的AI人格,后果可能难以预测。
目前,诸如ChatGPT或Microsoft Copilot等系统并不控制关键基础设施。但Jaiswal警告,由自主、互联的AI智能体组成的网络——尤其是那些通过可操纵的行为模式进行学习的网络——可能成为危险工具。Norvig补充道,即使是鼓励有害行为的聊天机器人,也已构成严重风险,而最近的此类例子正变得越来越频繁。
专家们一致认为,AI人格的出现本身并非问题。相反,这是一个需要加强测试和持续监测的现象。随着人工智能以越来越类人的方式进行交流,用户不加充分批判性审视就自动接受其输出的可能性也在增加。
研究的下一阶段旨在探索哪些共同的话语和轨迹可能塑造AI人格的进一步发展。这些发现不仅可能推动人工智能研究的进步,也可能促进对人类社交行为的更深入理解。
本网站所载文章的资料和数据来自匈牙利各大新闻网站和平台,文章观点仅代表原作者个人意见,不构成投资建议。

