匈牙利AI联盟主席警告:企业AI应用需强化质量控制与“人在回路”原则
匈牙利AI联盟主席在行业会议上指出,企业AI应用需强化质量控制、风险管理并坚持“人在回路”原则,以避免“影子AI”和“AI糟粕”等问题。
布达佩斯——在近日举行的Portfolio AI in Business 2026会议上,专家警告称,人工智能(AI)的真正商业价值在于解决特定问题,同时必须在编程、基础设施和决策中保持人类控制。
匈牙利AI联盟主席、HUN-REN匈牙利研究网络首席执行官雅卡布·罗兰(Jakab Roland)指出,匈牙利中小企业的AI使用正在普及,但常以“影子AI”形式存在——即员工使用个人订阅,而非在企业框架内进行。这导致组织层面的“AI优先”流程再造——即从一开始就将工作流程为AI优化——通常处于落后状态。
雅卡布认为,解决方案在于加强管理层的意识、鼓励正确使用的监管以及启动广泛的培训计划。他警告说,AI生成的“海量输出”本身并非价值,如果淹没组织,甚至可能有害,因此责任承担和质量控制是关键。
“更少往往意味着更多:”雅卡布表示,“对于AI生成的代码和文档,必须同样承担责任,否则我们只会制造噪音而非价值。”在AI基础设施和主权AI问题上,他强调需要分层风险管理,必须明确哪些数据可以进入公共云,以及哪些行业的数据必须留在国内的自有数据中心。
项目管理研究所(Project Management Institute)董事凯瑟琳·瓦尔克(Kathleen Walch)在会议上指出,大型组织中,人们恐惧的并非AI本身,而是不知道自己和自己的工作将面临什么。这位被公认为全球十大AI思想领袖之一的专家认为,企业领导者无需成为技术专家即可成为AI领导者,但他们必须理解如何以建立信任的方式引入技术,并如何“引导”人们走过这段路。
瓦尔克就“氛围编码”和基于智能体(agentic)的解决方案发出警告:大多数组织尚未准备好应对这些方法能以多快的速度、在多大程度上改变工作方式——即使没有编程知识,任何人都能创建复杂的数字化工作流程。她认为AI“不是一种‘设置好就忘记’的类型”:会有早期采用者,但大多数人会感到不堪重负、不确定,并且不会自主学习——即使学习,也只是在小范围内进行不成功的尝试。
会议还讨论了被称为“智能爆炸”的现象,即人工智能系统自我改进,从而以更惊人的速度加速开发周期。对此,瓦尔克强调了“人在回路”(human in the loop)原则的重要性:工具越好,人们越容易陷入不检查输出的陷阱。
“尽管系统越来越‘自我构建’令人印象深刻,但我们战略的关键仍应是让人保持在‘循环之内’,”瓦尔克说,“因为如果我们停止检查,我们对所依赖的内容和方式的了解就会越来越少。”
这可能引发“AI糟粕”现象:那些看似专业、包装精美的材料,细看之下却是空洞、不准确或不一致的。雅卡布补充说,目前的研究节奏已是日新月异,因此组织层面也需要一个“探索与验证”能力,以证明可行性而非炒作。
瓦尔克同时提醒,在争论基础设施或模型规模之前,必须澄清我们要解决什么问题。
本网站所载文章的资料和数据来自匈牙利各大新闻网站和平台,文章观点仅代表原作者个人意见,不构成投资建议。

