专家警告医疗AI应用风险:数据隐私与诊断可靠性存疑
专家警告,尽管OpenAI和Anthropic等公司推出医疗健康AI聊天机器人,但其在数据隐私保护、诊断可靠性及用户交互有效性方面仍存在显著风险与局限。
OpenAI于今年1月推出了名为ChatGPT Health的服务,该服务能够分析用户的医疗文档、健康应用数据以及可穿戴设备的测量结果。其竞争对手Anthropic也通过其聊天机器人Claude提供类似功能。两家公司均强调,这些大型语言模型(LLM)不能替代医疗服务,也不适用于做出诊断。然而,生成式人工智能解决方案或可在解读复杂检查结果、准备医疗检查,或从可用数据集中筛选重要健康趋势方面提供帮助。
这些新型聊天机器人的主要优势之一在于,其在回答时会考虑用户的病史——例如服用的药物、年龄以及先前的医疗记录。旧金山加利福尼亚大学(UCSF)的医疗技术专家罗伯特·瓦赫特(Robert Wachter)表示,这使得回答比简单的互联网搜索更具个性化。
瓦赫特认为,替代方案常常是无所作为,或患者依赖自己的直觉。他建议负责任地使用聊天机器人,并提供尽可能多的细节。
然而,数据隐私风险不容低估。在美国,被称为HIPAA的联邦数据隐私法严格规定了医生、医院和保险公司如何处理患者数据,但该法规并不适用于开发聊天机器人的公司。
“当有人将病史上传到一个大型语言模型中时,这与将其交给一位新医生完全不同,”斯坦福大学医学院院长劳埃德·迈纳(Lloyd Minor)警告说。OpenAI和Anthropic声称,他们将健康数据隔离存储,不用于训练其模型,并且用户可以随时撤回同意。
该技术的独立测试仍处于起步阶段,迄今为止的结果好坏参半。牛津大学一项涉及1300人的近期研究表明,那些借助聊天机器人获取健康问题信息的人,并未比通过互联网搜索或依赖自身判断来尝试解决问题的人做出更好的决策。
尽管聊天机器人基于书面、详细呈现的案例研究,在95%的情况下能正确识别疾病,但在与真实用户互动时,其性能显著下降。该研究负责人亚当·马赫迪(Adam Mahdi)表示,问题根源往往在于人们未提供足够的信息。
因此,聊天机器人混合提供了正确和错误的答案,而用户难以区分它们。
瓦赫特认为,聊天机器人最重要的一个发展方向是能够通过有针对性的追问,从用户那里提取关键细节,就像医生在诊室中所做的那样。这位专家建议,在健康问题上求助于聊天机器人的人,应并行使用多个系统,作为“第二意见”。然而,对于紧急症状——例如呼吸困难、胸痛或剧烈头痛——应立即就医。
本网站所载文章的资料和数据来自匈牙利各大新闻网站和平台,文章观点仅代表原作者个人意见,不构成投资建议。

