
【编者按】在信息爆炸的时代,AI正以前所未有的速度渗透我们的生活,甚至成为许多人求医问药的新“顾问”。当体检报告出现异常,当慢性病症状反复,你会选择等待医生的专业诊断,还是将隐私数据输入聊天机器人寻求即时解答?本文通过两位患者的真实经历,揭示了这一新兴趋势背后的双面性:一面是AI可能提供的快速参考与个性化建议,另一面则是诊断准确性的局限、隐私泄露的风险,以及对传统医患关系的冲击。在科技与健康交织的十字路口,我们该如何平衡便利与安全?以下报道或许能给你带来深思。
26岁的纽约人莫莉·克尔现居伦敦,今年夏天,她的验血报告显示激素失衡,这让她慌了神。
在患者平台上看到结果后,她吓得等不及和医生沟通。
于是,她带着不安,将完整报告粘贴进了ChatGPT。聊天机器人告诉她,她的化验结果可能指向多种情况,但“最有可能”是脑垂体肿瘤或与之相关的罕见病症。
聊天机器人的猜测并非毫无根据——克尔的医生也同意安排核磁共振检查——但它们错了。检查未发现肿瘤。
另一位患者、63岁的埃利奥特·罗伊斯则有不同经历。他将自己五年来的病历上传至ChatGPT,其中包括复杂的心脏病史和过去的心脏病发作记录。
他开始在运动时感到不适,一项检查显示动脉部分堵塞。
他的医生认为目前密切监测即可。但根据ChatGPT的建议,罗伊斯坚持要求进行更具侵入性的诊断程序,结果发现血管堵塞达85%——这是个严重问题,最终通过植入支架解决了。
全球数百万人正试图通过聊天机器人来更好地了解自身健康状况。
而像克尔和罗伊斯这样的人,不止于简单询问医疗问题。
他们和另外十几位接受《纽约时报》采访的人,已将化验结果、医学影像、医生笔记、手术报告等资料交给了聊天机器人。
信息不准确是主要担忧;一些研究发现,未经医学训练的人从聊天机器人获得正确诊断的几率不到一半。
上传敏感数据还增加了隐私风险,换来的只是看似更个性化的回复。
哈佛医学院助理教授、麻省总医院布里格姆数据科学与人工智能临床负责人丹妮尔·比特曼博士指出,假定聊天机器人能个性化分析检测结果并不安全。
她的研究发现,即使提供了特定患者的背景信息,聊天机器人仍倾向于给出更通用的回答。
“仅仅因为你向语言模型提供了所有这些信息,并不意味着它们能像医生那样有效运用这些信息。”
而且一旦人们上传这类数据,对其使用方式的控制就非常有限。
美国联邦健康隐私法HIPAA并不适用于热门聊天机器人背后的公司。
范德比尔特大学医学中心生物医学信息学教授布拉德利·马林表示,从法律上讲,“你基本上放弃了在医疗隐私方面的任何权利”,只剩下特定公司选择提供的保护。
ChatGPT的开发商OpenAI表示,其设有全面防护措施以保护用户隐私信息。
一位代表指出,用户可选择不将聊天内容用于训练未来模型,并称公司会通过模拟攻击测试系统安全性。
她还表示,公司仅与第三方服务提供商共享最少量的数据。
即便如此,数据隐私专家认为,向任何聊天机器人上传医疗信息都存在风险——既因不同机器人的政策各异,也因完全消除所有漏洞极其困难。
问题之一是许多人未选择不将数据用于训练目的。
南佛罗里达大学贝里尼人工智能、网络安全与计算学院助理教授卡尔尼·查加尔-费费科恩指出,这可能导致若一人上传医疗数据,而未来有他人向模型询问该人信息时,聊天机器人“可能意外泄露高度敏感信息”。
OpenAI称其致力于“最小化”这种可能性,该代表表示ChatGPT已被训练为不学习或透露此类信息。但数据隐私专家仍认为这种情况可能发生。
“他们的行动确实降低了风险,但并非且很可能无法做到万无一失,”查加尔-费费科恩说。她补充道:“不要害怕技术,但务必清楚风险。”
少数患者表示,在与聊天机器人共享记录前,他们删除了姓名并清除了元数据,但这可能不够。
威尔康奈尔医学院及纽约长老会医院人口健康科学系主任拉伊努·考沙尔博士指出,足够详细的信息有时仍可追溯到个人,即使未附姓名。
健康信息泄露的后果可能很严重。
例如,尽管大多数雇主歧视残疾人是违法的,但这种情况并不少见。
大多数接受《纽约时报》采访的人表示他们并不担心。
“我的手机随时跟着我,”88岁的罗伯特·格布哈特说。他上传了15年的病历,让ChatGPT评估其症状紧急程度和用药合理性。“任何想了解我的人都能查到,包括我的医疗数据。这是生活现实,我已经接受了。”
53岁的斯蒂芬妮·兰达自去年被诊断出转移性阑尾癌后,一直将检测结果输入ChatGPT。
她看重ChatGPT对结果的即时解读,尤其在结果令人绝望时——比如显示癌症已扩散至整个腹腔。她说,如果在就诊前消化了坏消息,就能更有效地利用问诊时间。
有一段时间,她费力地删除了身份信息。但后来她认为,鉴于侵袭性癌症的预后,她已不在乎了。
至于克尔,她在排除肿瘤后,内分泌科医生也无能为力,而她的初级保健医生至今未能解开谜团。
于是她又回头求助ChatGPT,寻求新的诊断建议和饮食指导,其中一些她觉得很有帮助。
“我知道这是敏感信息,”她说,“但我觉得从其他地方也得不到任何答案。”
本文原载于《纽约时报》。
作者:玛吉·阿斯特
?2025 纽约时报公司











